Όταν το AI λέει “A” και ο γιατρός λέει “B”

Εάν η ιατρική διάγνωση AI υποδηλώνει "Α", ο γιατρός εξακολουθεί να λέει "Β"; Ή για να το θέσω αλλιώς: μπορεί εύλογα να πει ακόμα «Β» εάν θα έπρεπε να είναι υπεύθυνη για τη λανθασμένη διάγνωση «Β» σε περίπτωση που το «Α» αποδειχθεί σωστό; Εάν, από την άλλη πλευρά, το "Α" αποδειχθεί λανθασμένη διάγνωση και ο γιατρός είπε επίσης "Α", η κατάσταση είναι διαφορετική, γιατί τότε ευθύνεται -πιθανόν- και το AI. Και αν ο γιατρός πει "Α" αφού το AI πρότεινε το "Β" και το "Α" ήταν σωστό, πιθανότατα θα πάρει ένα βραβείο. Το αν θα βιώσουμε ποτέ το τελευταίο εξαρτάται από το αν θα εξακολουθήσουν να υπάρχουν διαγνωστικές αποκλίσεις από τη σύσταση AI στην πράξη. Και, ειλικρινά, πώς θα το χειριζόσασταν: πρώτα η δική σας διάγνωση ή πρώτα η πρόταση AI; Ο καλύτερος τρόπος για να αποφύγετε τον κίνδυνο ναρκισσιστικού αυτοτραυματισμού είναι να ρωτήσετε πρώτα το AI και μετά να αποδεχτείτε τη σύστασή του με τις λέξεις: Έτσι θα το έβλεπα κι εγώ!

Προκλήσεις, ευκαιρίες, δυνατότητες

Κεντρική θέση στο ζήτημα του επαρκούς νομικού χειρισμού της τεχνητής νοημοσύνης είναι η κατανομή των ρόλων μεταξύ των ανθρώπων και του τεχνικού συστήματος. Ποιος είναι κύριος εδώ, ποιος είναι σκλάβος; Ποιος αποφασίζει σε τελική ανάλυση και μετά πρέπει να αναλάβει την ευθύνη για τις συνέπειες της απόφασης; Τα συστήματα υποστήριξης ιατρικής διάγνωσης θα πρέπει να υποβάλλουν προτάσεις θεραπείας με βάση υπολογισμούς διαγνωστικών πιθανοτήτων, θα πρέπει, όπως υποδηλώνει το όνομα, να βοηθούν και να μην επιτρέπουν στον άνθρωπο που λαμβάνει την τελική απόφαση να εκφυλιστεί σε βοηθό. Η Susanne Beck έφερε πρόσφατα την έννοια του «υπάλληλου ευθύνης» σε αυτήν την κατάσταση, η οποία είναι εμφανής στη σχετική συζήτηση, όταν μίλησε σε συνέδριο με θέμα « Τεχνητή Νοημοσύνη – Προκλήσεις και Ευκαιρίες » που διοργάνωσε το γερμανικό τμήμα του Η Διεθνής Επιτροπή Δικηγόρων στο Γκέτινγκεν έδωσε διάλεξη για τα νομικά προβλήματα της χρήσης της τεχνητής νοημοσύνης στον τομέα της υγείας. Ότι το συνέδριο, το οποίο ασχολήθηκε ουσιαστικά με το ζήτημα της ανάγκης ρύθμισης και της δυνατότητας ρύθμισης της τεχνητής νοημοσύνης σε διάφορους τομείς της ζωής και έχει λάβει σημαντική ανταπόκριση ( εδώ και εδώ ), με τις «προκλήσεις» και τις «ευκαιρίες» της χρήσης του AI, χτυπήστε το καρφί στο κεφάλι δείχνει επίσης τον τρέχοντα (άτυπο) τρίλογο για τον κανονισμό AI της ΕΕ . Από τη μία πλευρά, το σχέδιο κανονισμού που παρουσιάστηκε τον Απρίλιο του τρέχοντος έτους τονίζει ότι οι τεχνολογίες τεχνητής νοημοσύνης «μπορούν να συμβάλουν σε ένα ευρύ φάσμα οφελών για την οικονομία και την κοινωνία σε όλο το φάσμα των βιομηχανικών και κοινωνικών δραστηριοτήτων» (ΕΕ Νο. 3). Από την άλλη, αναδεικνύονται και οι τεχνολογικοί κίνδυνοι (Ε.Κ. Νο. 4), οι οποίοι στη συνέχεια προτείνουν επίσης ιδιαίτερα νομοθετική ρύθμιση. Ευκαιρίες και προκλήσεις, αν και οι ευκαιρίες αναφέρονται πρώτα – όπως είναι αναμενόμενο, αυτό πρέπει να είναι το αντίστροφο σε ένα νομικό συνέδριο.

Στην πραγματικότητα, η Επιτροπή πιστεύει ότι η τεχνητή νοημοσύνη μπορεί να έχει τεράστια οφέλη σε όλους σχεδόν τους τομείς της ζωής, η χρήση της «μπορεί να οδηγήσει σε καλά αποτελέσματα για την κοινωνία και το περιβάλλον, για παράδειγμα στους τομείς της υγειονομικής περίθαλψης, της γεωργίας, της εκπαίδευσης και κατάρτισης, της διαχείρισης υποδομών, ενέργεια, μεταφορές και επιμελητεία, δημόσιες υπηρεσίες, ασφάλεια, δικαιοσύνη, πόροι και ενεργειακή απόδοση και προστασία του κλίματος και προσαρμογή στην κλιματική αλλαγή» (ΕΚ αριθ. 3). Ωστόσο, οι κίνδυνοι φαίνονται επίσης εξίσου μεγάλοι, τουλάχιστον οι αντιλήψεις κινδύνου. Το μελάνι είχε μόλις στεγνώσει σχετικά με τη συμβιβαστική πρόταση που είχε εκπονηθεί υπό την τσεχική Προεδρία του Συμβουλίου, όταν κάποιοι έσπευσαν να αποτρέψουν δυστοπικές καταστάσεις. Ξαφνικά γίνεται λόγος για μια σχεδιαζόμενη «βιομετρική [n] μαζική επιτήρηση σε δημόσιο χώρο» , σε αντίθεση με το σχέδιο της Επιτροπής, η αιτιολογική σκέψη αριθ. -συστήματα αναγνώρισης χρόνου ακόμη και μετά τη χρήση εναρμόνιση Ε.Ε. Όσον αφορά τη διατήρηση δεδομένων, το ΔΕΚ συμφώνησε (εν τω μεταξύ) να επιτρέψει αυτήν την τεχνική διαδικασία τουλάχιστον σε εξαιρετικές περιπτώσεις που ορίζονται στενά ( εδώ , εδώ και εδώ ), γεγονός που υπογραμμίζει ότι οι συνολικές απαγορεύσεις οδηγούν σε λάθος κατεύθυνση. Ο βιομηχανικός σύνδεσμος της ψηφιακής οικονομίας απαίτησε πρόσφατα επιθετικά ότι η ρύθμιση της τεχνητής νοημοσύνης δεν πρέπει να είναι αδύνατη και ότι η υπερβολική ρύθμιση πρέπει να αποφεύγεται καθόλου, και προειδοποίησε ότι η Ευρώπη και η Γερμανία ειδικότερα θα μείνουν (περισσότερο) πίσω στον διεθνή ανταγωνισμό. Τα κακόβουλα κουτσομπολιά ισχυρίζονται ότι η ΕΕ έχει θέσει ως στόχο της «να αναλάβει παγκόσμιο ηγετικό ρόλο στην ανάπτυξη ασφαλούς, αξιόπιστης και ηθικής τεχνητής νοημοσύνης» (EG No. 5) μόνο και μόνο επειδή ένας τέτοιος ρόλος δεν είναι πλέον σοβαρός στον ίδιο τον τεχνολογικό τομέα μπορεί να στοχεύει. Από αυτή την άποψη, οι συζητήσεις σχετικά με την πλήρη απαγόρευση ορισμένων συστημάτων τεχνητής νοημοσύνης, όπως μπορεί να παρατηρηθεί στον τομέα της αναγνώρισης προσώπου σε δημόσιο χώρο, αποτελούν επίσης ένδειξη ότι στην Ευρώπη οι άνθρωποι σκέφτονται σχεδόν διαβόητα τον περιορισμό της τεχνητής νοημοσύνης και πολύ λιγότερο το δυναμικό της τεχνητής νοημοσύνης. Παρόμοιες συζητήσεις, όπως αυτή για τη χρήση θανατηφόρων drones που υποστηρίζονται από τεχνητή νοημοσύνη, δείχνουν ότι τα σχετικά κανονιστικά και ηθικά ερωτήματα συνοψίζονται ουσιαστικά σε ένα σημείο: μπορούμε να επιτρέψουμε σε μια μηχανή να παίρνει τελικά αποφάσεις αντί για έναν άνθρωπο (τελικά ακόμη και για τη ζωή και θάνατος) συναντά;

Αυτόνομα συστήματα, αυτόνομες αποφάσεις;

Στην αυτόνομη οδήγηση, όπως και σε άλλα συστήματα αυτόνομης δράσης, το «human in the loop» θα πρέπει να χρησιμοποιείται ως ο τελευταίος παράγοντας, τουλάχιστον σε προβληματικές καταστάσεις. Σε περίπτωση αμφιβολίας, ο οδηγός που παίρνει ξαφνικά το σήμα από το αυτόνομο αυτοκίνητό του ότι έχει κατακλυστεί και θέλει να ξαναδώσει τον έλεγχο στο άτομο, όχι μόνο θα είναι λιγότερο προσεκτικός από ό,τι θα ήταν αν οδηγούσε το όχημα ανεξάρτητα από την αρχή. . Ολόκληρο το μοντέλο αυτόνομων συστημάτων είναι υπό αμφισβήτηση εάν ο τελικός ανθρώπινος έλεγχος είναι διαθέσιμος ως κανονιστική σανίδα σωτηρίας, τουλάχιστον σε κρίσιμες στιγμές. Όπως παρατήρησε αυτάρεσκα ο Gerald Spindler στο συνέδριο του Γκέτινγκεν σε σχέση με μοντέλα δικτύωσης αυτοοδηγούμενων οχημάτων με εξωτερικά κέντρα ελέγχου στα οποία θα πρέπει να κάθονται οι άνθρωποι, μπορεί κανείς να μιλήσει για αυτόνομη οδήγηση μόνο εάν η σύνδεση με το κέντρο ελέγχου διακοπεί ως αποτέλεσμα μιας νεκρής ζώνης ραδιοφώνου. Γιατί τότε το όχημα θα ήταν πραγματικά μόνο του, εκτός από τους επιβάτες. Η επιθυμία του επιστήμονα υπολογιστών Simon Burton πήγε στη συνέχεια σε διαφορετική κατεύθυνση: Η ασφάλεια κατά τη χρήση της τεχνητής νοημοσύνης μπορεί να αυξηθεί μόνο σταδιακά ούτως ή άλλως και κατά συνέπεια η ρύθμιση μπορεί να γίνει μόνο σταδιακά.

Από τεχνικής άποψης, προφανώς δεν υπάρχει τρόπος να «εμπιστευτείτε» τα συστήματα αυτομάθησης, εάν θέλετε να τα χρησιμοποιήσετε. Παρεμπιπτόντως, αυτό φαίνεται και από το γνωστό πρόβλημα του «μαύρου κουτιού», το οποίο γενικά αποκλείει την ανακατασκευή μιας «απόφασης» τεχνητής νοημοσύνης στη συνέχεια και συνεπώς και την ατομική αμφισβήτηση ή τουλάχιστον το καθιστά εξαιρετικά δύσκολο. Στην απόφασή του για την αποθήκευση δεδομένων επιβατών, το ΔΕΚ έβαλε τέλος στις αυτόνομες διοικητικές παρεμβάσεις της τεχνητής νοημοσύνης για αυτόν ακριβώς τον λόγο. Και εδώ, προφανώς θεωρείται ότι τελικά μόνο ένας άνθρωπος που λαμβάνει αποφάσεις θα πρέπει να είναι αποδεκτός, κυρίως επειδή, σε αντίθεση με το AI, μπορεί να δικαιολογήσει την απόφασή του με τρόπο που να επιτρέπει τη νομική προστασία. Ως εκ τούτου, όταν χρησιμοποιείται η τεχνητή νοημοσύνη σε θέματα ευαίσθητα στα θεμελιώδη δικαιώματα, οι άνθρωποι πρέπει τελικά να ασκούν τον απόλυτο έλεγχο, ο οποίος πρέπει να διασφαλίζεται διαδικαστικά. Ούτε εδώ βοηθάει μια γενική στάση οστρακισμού . Ελάχιστη σκέψη δίνεται στο γεγονός ότι οι παρεμβάσεις που υποστηρίζονται από AI θα μπορούσαν να είναι ένα πιο ήπιο μέτρο από τις αμιγώς ανθρώπινες παρεμβάσεις σε μεμονωμένες περιπτώσεις, όπως τόνισε ο Eric Hilgendorf στο Göttingen και επεξηγήθηκε χρησιμοποιώντας το παράδειγμα ενός (αυτοματοποιημένου) σαρωτή σώματος αεροδρομίου. Επιπλέον, ο ορθολογισμός της ανθρώπινης λήψης αποφάσεων εξιδανικεύεται υπερβολικά. Είναι γενικά αποδεκτό ως αυτονόητο ότι η ανθρώπινη διαδικασία λήψης αποφάσεων που προηγείται της συγγραφής μιας εξήγησης είναι η ίδια ένα «μαύρο κουτί». Αυτό δείχνει κάτι που χαρακτηρίζει τη συζήτηση για την τεχνητή νοημοσύνη γενικά: η χρήση αλγοριθμικών διαδικασιών λήψης αποφάσεων φαίνεται να είναι γενικά αποδεκτή μόνο εάν το AI (σημαντικά) κάνει λιγότερα λάθη από τους ανθρώπους.

«Ο γιατρός στο βρόχο» ως «υπάλληλος ευθύνης»;

Αντίθετα, ένα προφανώς ανώτερο ανθρώπινο AI είναι επίσης προβληματικό. Αυτό αφορά το πρόβλημα ότι οι ανθρώπινες αποφάσεις καθορίζονται πραγματικά από (ιδιαίτερα καλές) συστάσεις αποφάσεων AI. Όποιος αποφασίσει κατά της τεχνητής νοημοσύνης θα πρέπει να το δικαιολογήσει ως διαγνωστικός γιατρός ιδιαίτερα καλά, ίσως και υπερβολικά καλά. Οι κίνδυνοι σε αυτό το πλαίσιο περιλαμβάνουν επίσης τη λεγόμενη "προκατάληψη αυτοματισμού", δηλαδή την πιθανή διαιώνιση των διαρθρωτικών ανισοτήτων, για παράδειγμα στον τομέα του υπολογισμού της πιθανότητας υποτροπής για αποφάσεις αναστολής ποινών ή στην προδιαλογή της εφαρμογής έγγραφα στις διαδικασίες πρόσληψης. Επειδή η τεχνητή νοημοσύνη κοιτάζει μόνο πίσω, έτσι ώστε μια πρακτική προσλήψεων που εισάγει διακρίσεις στο παρελθόν δεν μπορούσε μόνο να διατηρηθεί από την τεχνητή νοημοσύνη, αλλά ακόμη και να βελτιστοποιηθεί. Όλοι αυτοί οι προκαθορισμένοι κίνδυνοι είναι που ώθησαν τον Martin Eifert στο Göttingen να ζητήσει μια γενική νομική επιφύλαξη για τη χρήση της τεχνητής νοημοσύνης σε σχετικές καταστάσεις λήψης αποφάσεων, δηλαδή ανεξάρτητα από την ύπαρξη ενός ανθρώπινου τελικού λήπτη αποφάσεων.

Ωστόσο, η σχεδιαζόμενη προσέγγιση της ΕΕ, τουλάχιστον στην περίπτωση συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου που βασίζονται σε σημαντική απλοποίηση της απόδειξης, φαίνεται επίσης λίγο ηττοπαθής στο πλαίσιο του πραγματικού προσδιορισμού των ανθρώπινων αποφάσεων. Διότι αν ο άνθρωπος ως χρήστης του AI δεν πρέπει να είναι καθαρός «υπηρετητής ευθύνης», η μόνη επιλογή είναι να υποχωρήσει στο άτομο που διαθέτει το σύστημα στην αγορά. Οι αποζημιώσεις ευθύνης για λανθασμένες διαγνώσεις θα τιμολογηθούν απλώς από τις εταιρείες τεχνητής νοημοσύνης όπως το κόστος ανάπτυξης, τουλάχιστον σύμφωνα με το αστικό δίκαιο. Κατά κανόνα, κανείς δεν ευθύνεται ποινικά σε περιπτώσεις που ο γιατρός ακολουθεί το εξαιρετικά ευφυές σύστημα διαγνωστικής βοήθειας, το οποίο οδηγεί σε σφάλματα θεραπείας και ο ασθενής πεθαίνει. Ο "γιατρός στο βρόχο" δεν ενήργησε σχεδόν απρόσεκτα εάν εμπιστευόταν ένα σύστημα που μπορεί αποδεδειγμένα να αξιολογήσει τις ακτινολογικές εικόνες καλύτερα από τον εαυτό του και το σφάλμα προγραμματισμού που μπορεί να εντοπιστεί σε έναν μεμονωμένο προγραμματιστή, το οποίο προκάλεσε αποδεδειγμένα το θάνατο του ασθενούς και αποδιδόταν σε αυτό μάλλον δεν θα υπάρχει.

Το AI δεν είναι (ακόμα) ένα ελλιπές ον

Το AI προτείνει ότι ο άνθρωπος «αποφασίζει» και τελικά κανείς δεν ευθύνεται; Σε κάθε περίπτωση, η υπόθεση ότι όταν η τεχνητή νοημοσύνη λέει "A", ο χρήστης της τεχνητής νοημοσύνης ως άνθρωπος τελικός υπεύθυνος λήψης αποφάσεων ψηφίζει επίσης "Β" σε μεμονωμένες περιπτώσεις τείνει να είναι μη ρεαλιστική και η τεχνητή νοημοσύνη τότε στην πραγματικότητα αποφασίζει «αυτόνομα», αν και χωρίς να βρίσκεται πίσω από αυτό θα στεκόταν ένα αυτόνομο υποκείμενο. Σε κάθε περίπτωση, η φιλόσοφος και δημοσιογράφος Thea Dorn, η οποία εμφανίστηκε επίσης στο συνέδριο του Γκέτινγκεν, εξέφρασε δικαίως έντονες αμφιβολίες για το γεγονός ότι η προσπάθεια των ανθρώπων να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να αναγνωρίσουν τις δικές τους ελλείψεις, οι οποίες αντικατοπτρίζονται επίσης στις αδυναμίες της ανθρώπινης δράσης και λήψης αποφάσεων. δείχνει πραγματικά να ξεπεραστεί θα είναι επιτυχής. Η ανεπάρκεια του ατόμου είναι προφανώς το αρνητικό (ίσως και το προαπαιτούμενο;) της ευθύνης και της αυτονομίας ως υποκειμένου. Η Thea Dorn το έθεσε με λίγα λόγια: Στο πλαίσιο της τεχνητής νοημοσύνης, μπορεί να γίνει λόγος για αυτονομία μόνο εάν το ρομπότ φροντίδας μια μέρα αποφασίσει ότι θα προτιμούσε να λειτουργεί ως αυτοοδηγούμενο αυτοκίνητο από εδώ και στο εξής. Μέχρι τότε, σε κάθε περίπτωση, θα αναλάβουμε την ανθρώπινη ευθύνη για όλους τους τομείς που στοχεύονται πολιτικά – «υγειονομική περίθαλψη, γεωργία, εκπαίδευση και κατάρτιση, διαχείριση υποδομών, ενέργεια, μεταφορές και επιμελητεία, δημόσιες υπηρεσίες, ασφάλεια, δικαιοσύνη, πόροι και ενέργεια αποτελεσματικότητα και προστασία του κλίματος και προσαρμογή στην κλιματική αλλαγή» – μην το χάσετε.


Αυτή είναι μια αυτόματη μετάφραση μιας ανάρτησης που δημοσιεύτηκε στο Verfassungsblog στη διεύθυνση URL https://verfassungsblog.de/ki-sagt-a/ στις Thu, 24 Nov 2022 08:36:57 +0000.