Το μονοπάτι δεν έχει ληφθεί

Εάν η ανάπτυξη ορισμένων τεχνολογιών, όπως η προηγμένη, μη ευθυγραμμισμένη τεχνητή νοημοσύνη, θα ήταν τόσο επικίνδυνη όσο κάποιοι έχουν προτείνει, μια μακροπρόθεσμη νομική προοπτική θα μπορούσε να υποστηρίξει μια στρατηγική τεχνολογικής καθυστέρησης – ή ακόμα και περιορισμού – για να αποφευχθεί μια προεπιλεγμένη έκβαση της καταστροφής. Για πολλούς, η αυτοσυγκράτηση – μια απόφαση να απομακρυνθούν επ 'αόριστον από την ανάπτυξη ή τουλάχιστον την ανάπτυξη της τεχνολογίας – μπορεί να φαίνεται απίθανη. Ωστόσο, η ιστορία προσφέρει μια εκπληκτική σειρά περιπτώσεων όπου οι στρατηγικά υποσχόμενες τεχνολογίες καθυστέρησαν, εγκαταλείφθηκαν ή έμειναν άκτιστες, παρόλο που πολλοί εκείνη την εποχή θεώρησαν την ανάπτυξή τους ως αναπόφευκτη. Κυμαίνονται από ραδιολογικά και καιρικά όπλα έως ατομικά αεροπλάνα, από δεκάδες οικειοθελώς ακυρωμένα κρατικά προγράμματα πυρηνικών όπλων, έως ένα σοβιετικό Διαδίκτυο και πολλά άλλα. Είναι εύκολο να χάσουμε αυτές τις περιπτώσεις ή να παρερμηνεύσουμε τις αιτίες τους, με τρόπους που μας κάνουν να είμαστε υπερβολικά απαισιόδοξοι για τις μελλοντικές προοπτικές περιορισμού. Αυτό δεν σημαίνει ότι ο περιορισμός για μελλοντικές τεχνολογίες όπως η προηγμένη τεχνητή νοημοσύνη θα είναι εύκολος. Ωστόσο, η διερεύνηση πότε και γιατί μπορεί να χρειαστεί περιορισμός, πού είναι βιώσιμος και πώς οι νομικές παρεμβάσεις θα μπορούσαν να συμβάλουν στην επίτευξη και τη διατήρησή του, θα πρέπει να αποτελεί βασικό πυλώνα σε ένα μακροπρόθεσμο χαρτοφυλάκιο νομικής έρευνας.

Το ζήτημα της αυτοσυγκράτησης γύρω από την ανάπτυξη AI

Σε ένα διάσημο δοκίμιο του 2000, με τίτλο « Γιατί το μέλλον δεν μας χρειάζεται », ο επιστήμονας υπολογιστών Bill Joy συλλογίστηκε με θλίψη το πιθανό φάσμα νέων τεχνολογικών απειλών που θα μπορούσαν να μας περιμένουν στον 21ο αιώνα, εκφράζοντας έγκαιρες ανησυχίες για τους πιθανούς ακραίους κινδύνους αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη (AI). Σχεδιάζοντας μια σύνδεση με την ιστορία του 20ου αιώνα του ελέγχου των όπλων και της μη διάδοσης γύρω από τα πυρηνικά και βιολογικά όπλα, ο Joy υποστήριξε ότι εφόσον η θωράκιση έναντι των μελλοντικών τεχνολογικών απειλών δεν ήταν βιώσιμη, «η μόνη ρεαλιστική εναλλακτική που βλέπω είναι η εγκατάλειψη: ο περιορισμός της ανάπτυξης οι τεχνολογίες που είναι πολύ επικίνδυνες». Ενώ η αφήγηση του Joy αντανακλούσε μια πρώιμη και κατά κάποιο τρόπο ξεπερασμένη κατανόηση των συγκεκριμένων τεχνολογικών κινδύνων που θα μπορούσαν να απειλήσουν τη μακροπρόθεσμη τροχιά του πολιτισμού, το υποκείμενο ερώτημα που έθεσε παραμένει σημαντικό και παραμελημένο: αν η προστασία του μακροπρόθεσμου μέλλοντος μας απαιτούσε να καθυστερήσει σημαντικά ή ακόμα και να εγκαταλείψει την ανάπτυξη ορισμένων ισχυρών αλλά επικίνδυνων τεχνολογιών, θα ήταν αυτό βιώσιμο;

Το εάν οι στρατηγικές τεχνολογικής καθυστέρησης ή ακόμη και περιορισμού έχουν πλεονεκτήματα είναι ένα κρίσιμο ζήτημα για όποιον ενδιαφέρεται για τη σχέση της κοινωνίας με την τεχνολογία τόσο βραχυπρόθεσμα όσο και μακροπρόθεσμα. Είναι ιδιαίτερα σημαντικό για το μακροπρόθεσμο έργο της νομικής ιεράρχησης , στον καθορισμό του τρόπου με τον οποίο ο νόμος πρέπει να στοχεύει στη διαμόρφωση της ανάπτυξης νέων τεχνολογιών.

Η ένταση είναι πιο έντονη στις συζητήσεις γύρω από τις πιθανές μελλοντικές επιπτώσεις της ολοένα και πιο ικανής και δυνητικά μετασχηματιστικής τεχνητής νοημοσύνης . Ενώ υπάρχουν πολλά μοντέλα για το πώς θα μπορούσε να μοιάζει αυτό –όπως « Υψηλού επιπέδου Μηχανική Νοημοσύνη », «Τεχνητή Γενική Νοημοσύνη», « Ολοκληρωμένες Υπηρεσίες Τεχνητής Νοημοσύνης » ή « Διαδικασία Αυτοματοποίησης Επιστημονικής και Τεχνολογικής Προόδου» , υπάρχει μια γενική συμφωνία ότι εάν είναι βιώσιμες, αυτές οι προηγμένες τεχνολογίες τεχνητής νοημοσύνης θα μπορούσαν να αποφέρουν τόσο τεράστια κοινωνικά οφέλη, αλλά και δυνητικά ακραίους κινδύνους , εάν δεν «ευθυγραμμιστούν» σωστά με τις ανθρώπινες αξίες.

Δεδομένων αυτών των κινδύνων, είναι σημαντικό να αναρωτηθούμε εάν ο κόσμος θα πρέπει να συνεχίσει να επιδιώκει την ανάπτυξη προηγμένης τεχνητής νοημοσύνης ή αν θα ήταν καλύτερα η πρόοδος της τεχνητής νοημοσύνης να επιβραδυνθεί –ή ακόμα και να σταματήσει– έως ότου έχουμε συντριπτικά στοιχεία ότι κάποιος μπορεί με ασφάλεια να «ευθυγραμμιστεί» την τεχνολογία και κρατήστε την υπό έλεγχο. Ωστόσο, ακόμα κι αν καταλήξουμε στο συμπέρασμα ότι απαιτείται αυτοσυγκράτηση, ορισμένοι ήταν δύσπιστοι κατά πόσον αυτό θα ήταν βιώσιμο , δεδομένων των δυνητικά υψηλών στρατηγικών διακυβεύσεων γύρω από την προηγμένη ανάπτυξη της τεχνητής νοημοσύνης και του μικτού ιστορικού των συμφωνιών μη διάδοσης στον δεσμό του παρελθόντος ανταγωνισμού μεταξύ μεγάλων κρατών. Πρέπει όμως να είμαστε τόσο απαισιόδοξοι; Για να κατανοήσουμε τη βιωσιμότητα του τεχνολογικού περιορισμού, βοηθάει να εξεταστεί πότε ήταν δυνατός ο τεχνολογικός περιορισμός στο παρελθόν. Αυτό μπορεί να μας βοηθήσει να απαντήσουμε στο ζωτικής σημασίας ερώτημα ποιες νομικές, θεσμικές ή πολιτικές παρεμβάσεις θα μπορούσαν να αυξήσουν τις προοπτικές επίτευξης αυτού στην περίπτωση της τεχνητής νοημοσύνης, εάν αυτό είναι απαραίτητο.

Η ηθική του περιορισμού

Η μακροχρόνια φιλοσοφία είχε μια περίπλοκη ηθική σχέση με την προοπτική της προηγμένης τεχνητής νοημοσύνης. Από τη μία πλευρά, οι μακροχρόνιοι στοχαστές ήταν από τους πρώτους υποστηρικτές της ιδέας ότι αυτή η τεχνολογία θα μπορούσε να είναι υπαρξιακά επικίνδυνη.

Ωστόσο, από την άλλη πλευρά, οι μακροπρόθεσμες προοπτικές έχουν γενικά ευνοήσει την ιδέα ότι τα προηγμένα συστήματα τεχνητής νοημοσύνης όχι μόνο θα αναπτυχθούν, αλλά και θα πρέπει να αναπτυχθούν τελικά . Αυτό συμβαίνει επειδή υποστηρίζουν ότι τα συστήματα τεχνητής νοημοσύνης με ασφάλεια ευθυγραμμισμένα θα μπορούσαν, υποθετικά, να είναι μια τεράστια δύναμη για μακροπρόθεσμο καλό: θα μπορούσαν να φέρουν τεράστια επιστημονική πρόοδο και οικονομικό πλούτο στον κόσμο (π.χ. αυτό που ο Sam Altman έχει αποκαλέσει « Νόμος του Moore για τα πάντα »). . Η ευθυγραμμισμένη τεχνητή νοημοσύνη θα μπορούσε επίσης να είναι κρίσιμης σημασίας για τη μακροπρόθεσμη επιβίωσή μας, επειδή η ανθρωπότητα σήμερα και στο μέλλον αντιμετωπίζει πολλούς άλλους παγκόσμιους καταστροφικούς κινδύνους και η επιτυχής αντιμετώπιση αυτών μπορεί να απαιτήσει την υποστήριξη προηγμένων συστημάτων τεχνητής νοημοσύνης, ικανών να ξεκλειδώνουν επιστημονικά προβλήματα ή να βλέπουν λύσεις ότι δεν μπορούμε. Επιπλέον, κάτω από ορισμένα ηθικά πλαίσια, τα συστήματα AI θα μπορούσαν να έχουν ηθική υπόσταση ή αξία.

Ωστόσο, υπάρχουν συνθήκες υπό τις οποίες ακόμη και μια μακροπρόθεσμη προοπτική θα μπορούσε να υποστηρίξει μια στρατηγική με στόχο την οριστική εγκατάλειψη (ορισμένες μορφές) τεχνητής νοημοσύνης. Αυτό θα μπορούσε να οφείλεται στο ότι αναμένουμε ότι η ασφαλής ευθυγράμμιση προηγμένων συστημάτων τεχνητής νοημοσύνης είναι αστρονομικά απίθανη. Πράγματι, όσο πιο απαισιόδοξοι είμαστε , τόσο περισσότερο θα πρέπει να προτιμάμε μια τέτοια στρατηγική «περιορισμού» . Αλλά αν υποθέσουμε ότι ο τεχνολογικός περιορισμός είναι πράγματι επιθυμητός, θα ήταν βιώσιμος; Ενώ υπάρχει ένα αναδυόμενο σώμα μακροπρόθεσμων εργασιών που διερευνούν τη βιωσιμότητα των στρατηγικών « διαφορικής τεχνολογικής ανάπτυξης » (δηλαδή επιτάχυνση των αμυντικών τεχνολογιών και φύλαξης, με παράλληλη επιβράδυνση των επικίνδυνων δυνατοτήτων), προτάσεις για τον πλήρη περιορισμό και την αποτροπή προηγμένων συστημάτων τεχνητής νοημοσύνης δεν είχαν προηγουμένως έλαβε μεγάλη προσοχή στη συζήτηση. Αυτό συμβαίνει συχνά λόγω της αντίληψης ότι οι στρατιωτικοοικονομικές ανταγωνιστικές πιέσεις μπορούν να δημιουργήσουν ισχυρά κίνητρα για την ανάπτυξη ισχυρών τεχνολογιών, ακόμη και με κάποιο κίνδυνο – ή ότι ακόμα κι αν πείθαμε ορισμένους παράγοντες να καθυστερήσουν, ότι αυτό θα έδινε το πεδίο σε άλλους, λιγότερο σχολαστικοί προγραμματιστές τεχνητής νοημοσύνης , οι οποίοι είναι λιγότερο πιθανό να είναι υπεύθυνοι ή να χρησιμοποιήσουν την τεχνολογία για τα καλά. Σύμφωνα με αυτήν την άποψη, τόσο ο μονομερής όσο και ο συντονισμένος περιορισμός από βασικούς παράγοντες της τεχνητής νοημοσύνης (π.χ. ιδιωτικές εταιρείες ή κράτη) είναι απίθανος: ο πρώτος, λόγω των ισχυρών πλεονεκτημάτων που θα παρείχε η τεχνολογία τεχνητής νοημοσύνης. το τελευταίο, δεδομένης της δυσκολίας διαπραγμάτευσης, παρακολούθησης και επιβολής πολυμερών παγκόσμιων απαγορεύσεων γύρω από τεχνολογίες υψηλού ρίσκου, διπλής χρήσης και ταχέως κινούμενα όπως η τεχνητή νοημοσύνη.

Η ιστορία του περιορισμού

Ωστόσο, αυτό μπορεί να είναι πολύ απαισιόδοξο. Στην πραγματικότητα, η αποτύπωση του ιστορικού ιστορικού της τεχνολογικής καινοτομίας παρέχει έναν μακρύ κατάλογο υποψήφιων περιπτώσεων τεχνολογικού περιορισμού. Αυτές περιλαμβάνουν περιπτώσεις αξιοσημείωτων καθυστερήσεων στην ανάπτυξη, δεκαετιών ή και αιώνων, φαινομενικά (1) επειδή δεν έγιναν αντιληπτά τα χαμηλά φρούτα (π.χ. η εισαγωγή του 1733 των ιπτάμενων λεωφορείων στην ύφανση μετά από πέντε χιλιάδες χρόνια), (2) λόγω των εφευρετών και την αβεβαιότητα των επενδυτών σχετικά με το νομικό καθεστώς της τεχνολογίας (π.χ. μηχανοποιημένα πριονιστήρια στην Αγγλία δεν επιδιώκονταν για αιώνες με βάση τη διαδεδομένη –και εσφαλμένη– πεποίθηση ότι το Κοινοβούλιο τα είχε θέσει εκτός νόμου). (3) λόγω των τοπικών πολιτιστικών προτιμήσεων ( τα ηλεκτρικά αυτοκίνητα κατείχαν ίσο μερίδιο αγοράς των ΗΠΑ τη δεκαετία του 1900, αλλά σύντομα μειώθηκαν σε χρήση επειδή τα αυτοκίνητα που χρησιμοποιούν κινητήρες εσωτερικής καύσης έγιναν πιο αρρενωπά και έλκονταν σε μια φιλοδοξία για περιοδείες). (4) λόγω κυβερνητικών πολιτικών ή επιλογών από πάνω προς τα κάτω (π.χ. 250ετής απαγόρευση των πυροβόλων όπλων του Σογουνάτη της Τοκουγκάβα ). (5) λόγω στενών πολιτικών ή γραφειοκρατικών συγκρούσεων (π.χ. καθυστερήσεις στο πρόγραμμα πυρηνικών όπλων της Ινδίας και η σοβιετική δύναμη ICBM του πρώτου Ψυχρού Πολέμου ). ή (6) απλώς επειδή προηγούμενες τεχνολογικές επιλογές είχαν διοχετεύσει την προσοχή και τους πόρους της βιομηχανίας μακριά από συγκεκριμένα επιστημονικά μονοπάτια (π.χ. οι πρώιμες προσεγγίσεις τεχνητής νοημοσύνης που βασίζονται σε νευρωνικά δίκτυα μπορεί να έχουν καθυστερήσει για δεκαετίες, επειδή μια « λοταρία υλικού » κλειδώθηκε στην πρώιμη προσοχή και χρηματοδότηση για συμβολικά Το AI προσεγγίζει αντί αυτού).

Υπάρχουν επίσης περιπτώσεις σκόπιμης μη επιδίωξης ή εγκατάλειψης των οραματιζόμενων τεχνολογιών, για διάφορους λόγους: (1) ανησυχίες σχετικά με κινδύνους και δεσμεύσεις βάσει συνθηκών οδήγησαν τις ΗΠΑ να μην επιδιώξουν ένα ευρύ φάσμα προτάσεων για εξωτικά πυρηνικά συστήματα διανομής , πυρηνικά Πύραυλοι κρουζ με κινητήρα ramjet και προηγμένα συστήματα αντιπυραυλικής άμυνας που βασίζονται στο διάστημα, όπως τα Projects Excalibur, Zenith Star και Brilliant Pebbles. (2) οι συνθήκες οδήγησαν στο τέλος των προγραμμάτων ελέγχου του καιρού της εποχής του Βιετνάμ. (3) Τα σχέδια του Edward Teller για πυρηνικά όπλα κλίμακας «καταστροφέα ηπείρου» με απόδοση 10 γιγατόνων (670.000 φορές τη Χιροσίμα) έμειναν στο σχέδιο. (4) η πλειονότητα των ~ 31-38 προγραμμάτων πυρηνικών όπλων που αναλήφθηκαν ή εξετάστηκαν εγκαταλείφθηκαν. (5) οι ΗΠΑ, το ΗΒ και η Σοβιετική Ένωση εγκατέλειψαν τα ραδιολογικά όπλα « θανατόσκονης ». (6) η επιτροπή της Σοβιετικής Ένωσης τράβηξε την πρίζα από το OGAS, ένα πρώιμο «διαδίκτυο» . (7) διάφορα προγράμματα βιολογικών όπλων επιβραδύνθηκαν ή περιορίστηκαν ως προς την αποτελεσματικότητά τους . (8) οι ΗΠΑ εγκατέλειψαν το Project Westford, μια «τεχνητή ιονόσφαιρα» από μισό δισεκατομμύριο χάλκινες βελόνες που τοποθετήθηκαν σε τροχιά για να εξασφαλίσουν τις ραδιοεπικοινωνίες τους. (9) Τα γαλλικά αεροσκάφη έπεσαν θύματα των συγκρούσεων συμφερόντων της κρατικής ελίτ, τα πυρηνικά αεροσκάφη έπεσαν θύματα ανησυχιών και κόστους για κινδύνους. και (10) στις αρχές της δεκαετίας του '90, η DARPA απέσυρε τη 10ετή Πρωτοβουλία Στρατηγικής Υπολογιστικής της για να αναπτύξει «μηχανές που σκέφτονται» , αντί να ανακατευθύνει τη χρηματοδότηση προς πιο εφαρμοσμένες χρήσεις υπολογιστών, όπως η μοντελοποίηση πυρηνικών εκρήξεων, μεταξύ πολλών άλλων

Είναι σημαντικό να σημειωθεί ότι αυτή η έρευνα μπορεί να είναι χαμηλή εκτίμηση. Αυτές είναι μόνο οι περιπτώσεις που έχουν τεκμηριωθεί δημόσια. Μπορεί να υπάρχουν πολύ περισσότερες περιπτώσεις περιορισμού όπου η τεχνολογία εξετάστηκε και εγκαταλείφθηκε, αλλά δεν έχουμε σαφή αρχεία για να τα αξιοποιήσουμε. ή περιπτώσεις όπου η απουσία της ευρείας εφαρμογής τους σήμερα δεν μας δίνει κανένα λόγο να καταλάβουμε ότι ήταν ποτέ ουσιαστικά στο τραπέζι. Ή όπου (ψευδώς) πιστεύουμε ότι η απόφαση να εγκαταλείψουμε την επιδίωξη απλώς αντικατοπτρίζεται σε μια ακριβή εκτίμηση ότι αυτά ήταν μη βιώσιμα.

Η επιστημολογία του περιορισμού

Η μελέτη περιπτώσεων περιορισμού του παρελθόντος υπογραμμίζει μια επιστημική πρόκληση που πρέπει να έχουμε κατά νου όταν εξετάζουμε τη μελλοντική βιωσιμότητα του περιορισμού σε τεχνητή νοημοσύνη ή άλλες ισχυρές τεχνολογίες. Δηλαδή, ότι ο τρόπος με τον οποίο κατανοούμε και ερμηνεύουμε αναδρομικά την ιστορία της τεχνολογικής ανάπτυξης (και προεκτείνουμε την τεχνητή νοημοσύνη) επηρεάζεται από γνωσιολογικά εμπόδια.

Για παράδειγμα, η εμφάνιση επικίνδυνων νέων όπλων και οι σπλαχνικές αποτυχίες του ελέγχου των όπλων εμφανίζονται ιδιαίτερα μεγάλες στην ιστορική μνήμη. Αντίθετα, αποτυγχάνουμε να δούμε προτεινόμενες αλλά μη χτισμένες τεχνολογίες, οι οποίες είναι πιο πιθανό να καταλήξουν ως σκοτεινές υποσημειώσεις. Αυτό διασφαλίζει ότι είμαστε επιρρεπείς στην υποεκτίμηση της ιστορικής συχνότητας του τεχνολογικού περιορισμού ή στην παρερμηνεία των κινήτρων για περιορισμό. Συχνά, σε περιπτώσεις όπου ένα κράτος αποφάσισε να μην επιδιώξει μια στρατηγικής σημασίας τεχνολογία για λόγους κινδύνου ή κόστους ή (ηθικές ή κινδύνου), αυτό μπορεί να παρερμηνευτεί ως περίπτωση όπου «η τεχνολογία πιθανότατα δεν ήταν ποτέ βιώσιμη και την αναγνώρισαν –αλλά θα είχαν αγωνιστεί για αυτό αν πίστευαν ότι υπήρχε μια ευκαιρία».

Φυσικά, μπορεί να είναι δύσκολο να ξεκαθαρίσουμε τους ακριβείς λόγους περιορισμού (για να καταλάβουμε εάν/πώς θα ισχύουν για την τεχνητή νοημοσύνη). Σε ορισμένες περιπτώσεις, ο προφανής λόγος για τον οποίο οι ηθοποιοί τράβηξαν την πρίζα φαίνεται πράγματι να ήταν η αντίληψη (είτε είναι ακριβής είτε όχι) ότι μια τεχνολογία δεν ήταν βιώσιμη ή θα ήταν πολύ δαπανηρή. ή μια άποψη ότι θα ήταν περιττή με άλλες τεχνολογίες. Σε άλλες περιπτώσεις, ωστόσο, η κινητήρια δύναμη πίσω από τον περιορισμό φαίνεται να ήταν η πολιτική αστάθεια, οι θεσμικές εσωτερικές διαμάχες ή οι διπλωματικές διαπραγματεύσεις. Είναι σημαντικό ότι σε λίγες περιπτώσεις, ο περιορισμός φαίνεται να αντικατοπτρίζει γνήσιες κανονιστικές ανησυχίες σχετικά με πιθανούς κινδύνους, δεσμεύσεις βάσει συνθηκών, διεθνή θέση ή δημόσια πίεση. Αυτό έχει σημασία, διότι δείχνει ότι η αντιληπτή «επιστημονική μη βιωσιμότητα» δεν είναι το μόνο εμπόδιο στην ανάπτυξη μιας τεχνολογίας. Αντιθέτως, υπογραμμίζει μια σειρά από πιθανά σημεία παρέμβασης ή μοχλούς για νομικά εργαλεία και εργαλεία διακυβέρνησης στο μέλλον. Τελικά, το βασικό σημείο είναι ότι, ενώ το ιστορικό της αυτοσυγκράτησης είναι ατελές, εξακολουθεί να είναι καλύτερο από ό,τι θα περίμενε κανείς από την άποψη των λογικών συμφερόντων — και καλύτερο από ό,τι αναμενόταν συχνά από τους ανθρώπους που ζούσαν εκείνη την εποχή. Από εξωτερική άποψη, είναι σημαντικό να κατανοήσουμε τους επιστημικούς φακούς που παραμορφώνουν την κατανόησή μας για τη μελλοντική βιωσιμότητα του περιορισμού ή του συντονισμού για άλλες τεχνολογίες (όπως η προηγμένη τεχνητή νοημοσύνη), με τον ίδιο τρόπο που θα έπρεπε να υπολογίζουμε με επιχειρήματα « ανθρωπικής σκιάς » γύρω από την εξαφάνιση. κινδύνους.

Η στρατηγική του περιορισμού της τεχνητής νοημοσύνης

Εν ολίγοις, όταν κάνουμε μια αξιολόγηση της βιωσιμότητας του περιορισμού γύρω από την προηγμένη τεχνητή νοημοσύνη, είναι σημαντικό να συμπληρώνουμε την εσωτερική μας αξιολόγηση, με μια εξωτερική κατανόηση της τεχνολογικής ιστορίας που δεν μετράει μόνο επιτυχημένες διεθνείς πρωτοβουλίες μη διάδοσης, αλλά και εξετάστε επίσης περιπτώσεις όπου εγχώριοι επιστημονικοί, πολιτικοί ή νομικοί οδηγοί συνέβαλαν στον περιορισμό.

Φυσικά, το να πούμε ότι πρέπει να μετριάζουμε την απαισιοδοξία μας δεν σημαίνει ότι πρέπει να είμαστε πολύ αισιόδοξοι για τον τεχνολογικό περιορισμό για την τεχνητή νοημοσύνη. Πρώτον, υπάρχουν τεχνολογικά χαρακτηριστικά που φαίνεται ότι συνέβαλαν στο παρελθόν μονομερούς περιορισμού, συμπεριλαμβανομένων μακρών οδικών χαρτών συναρμολόγησης με αβέβαιη απόδοση και χωρίς περιπτώσεις ενδιάμεσης κερδοφόρας χρήσης. ισχυρή ενιαία θεσμική «ιδιοκτησία» των ροών τεχνολογίας ή δημόσια αποστροφή. Αυτά τα χαρακτηριστικά φαίνονται απούσα ή λιγότερο ισχυρά για την τεχνητή νοημοσύνη, καθιστώντας λιγότερο πιθανό τον περιορισμό. Ομοίως, οι τεχνολογίες τεχνητής νοημοσύνης δεν μοιράζονται πολλά από τα χαρακτηριστικά που έχουν ενεργοποιήσει τις συντονισμένες απαγορεύσεις σε τεχνολογίες (όπλα), καθιστώντας δύσκολη τη συντονισμένη συγκράτηση.

Ως εκ τούτου, το ιστορικό της αυτοσυγκράτησης δεν παρέχει ένα προσχέδιο για μια αξιόπιστη πορεία πολιτικής. Ωστόσο, επισημαίνει παρεμβάσεις που μπορεί να βοηθήσουν στην πρόκληση απροσδόκητου μονομερούς ή συντονισμένου περιορισμού γύρω από την προηγμένη τεχνητή νοημοσύνη. Ορισμένες από αυτές (όπως περιπτώσεις αλλαγής καθεστώτος) είναι εκτός του πεδίου εφαρμογής νομικών προσεγγίσεων. Ωστόσο, οι νομικοί που ανησυχούν για τη μακροπρόθεσμη διακυβέρνηση της τεχνητής νοημοσύνης μπορούν και πρέπει να βασιστούν στο αναδυόμενο πεδίο του « τεχνολογικού δικαίου », για να εξερευνήσουν το τοπίο του τεχνολογικού περιορισμού. Μπορούν να το κάνουν όχι μόνο εστιάζοντας σε κανόνες ή πολυμερείς συνθήκες βάσει του διεθνούς δικαίου, αλλά και μέσω παρεμβάσεων που πλαισιώνουν τις αντιλήψεις των πολιτικών για την τεχνητή νοημοσύνη, αλλάζουν τα διοργανικά συμφέροντα και τη δυναμική ή ανακατευθύνουν τις επενδύσεις σε υποκείμενες βάσεις υλικού, κλείνοντας σε «λαχεία υλικού». .

Τελικά, ο τεχνολογικός περιορισμός μπορεί να μην είναι επιθυμητός και οι προοπτικές για οποιαδήποτε από αυτές τις οδούς μπορεί να παραμείνουν φτωχές: ωστόσο ο περιορισμός παρέχει μια βασική εφεδρική στρατηγική στο μακροπρόθεσμο χαρτοφυλάκιο, εάν η αγκύρωση της τεχνητής νοημοσύνης αποδειχθεί ποτέ απαραίτητη για τη διαφύλαξη του μακροπρόθεσμου .

Ευχαριστίες:

Αυτό το δοκίμιο αντικατοπτρίζει τις εργασίες σε εξέλιξη και έχει βασιστεί σε χρήσιμα σχόλια και σχόλια από πολλούς. Ευχαριστώ ιδιαίτερα τον Tom Hobson, τον Di Cooke, τον Sam Clarke, τον Otto Barten, τον Michael Aird, τον Ashwin Acharya, τον Luke Kemp, τον Cecil Abungu, τον Shin-Shin Hua, τον Haydn Belfield και τον Marco Almada για τα διορατικά σχόλια, τις αντιδράσεις και τις κριτικές. Οι θέσεις που εκφράζονται σε αυτό το έγγραφο δεν αντιπροσωπεύουν απαραίτητα τις απόψεις τους.


Αυτή είναι μια αυτόματη μετάφραση μιας ανάρτησης που δημοσιεύτηκε στο Verfassungsblog στη διεύθυνση URL https://verfassungsblog.de/paths-untaken/ στις Tue, 09 Aug 2022 16:55:43 +0000.