Μια συστημική προσέγγιση για την εφαρμογή της απαίτησης του DSA Human-in-the-Loop

Οι υπεύθυνοι χάραξης πολιτικής και το κοινό ανησυχούν ολοένα και περισσότερο για την έλλειψη διαφάνειας και λογοδοσίας στον έλεγχο του περιεχομένου. Οι αδιαφανείς και αδιαμφισβήτητες αποφάσεις ελέγχου περιεχομένου έχουν πιθανές επιπτώσεις στην ελευθερία της έκφρασης και στην ελευθερία των μέσων ενημέρωσης , καθώς και σε γνωστά ζητήματα διακρίσεων και μεροληψίας . Στην ΕΕ, η βελτίωση της δικαιοσύνης και της λογοδοσίας στον έλεγχο περιεχομένου είναι ένας σημαντικός στόχος πολιτικής του νόμου για τις ψηφιακές υπηρεσίες του 2022 (DSA).

Η συνεισφορά μας επικεντρώνεται σε ένα βασικό στοιχείο αυτού του νομοθετικού πλαισίου: το άρθρο 20 DSA, το οποίο ορίζει κανόνες για τα εσωτερικά συστήματα διαχείρισης παραπόνων των διαδικτυακών πλατφορμών. Το άρθρο 20 απαιτεί από τις πλατφόρμες να επιτρέπουν στους χρήστες να αμφισβητούν αποφάσεις μετριοπάθειας και να εξετάζουν τα παράπονά τους «υπό την επίβλεψη του κατάλληλα καταρτισμένου προσωπικού». Παρόλο που οι μελετητές και οι σχολιαστές έχουν εγείρει σημαντικά ερωτήματα σχετικά με τη χρησιμότητα της προσπάθειας ρύθμισης πολύπλοκων, μεγάλης κλίμακας συστημάτων ελέγχου περιεχομένου μέσω «δέουσας διαδικασίας» για άτομα , αυτή η προσέγγιση έχει πλέον εδραιωθεί στο ευρωπαϊκό δίκαιο. Συνεπώς, η εστίασή μας εδώ είναι στο πώς μπορεί και πρέπει να ερμηνεύεται στο μέλλον το άρθρο 20. Συγκεκριμένα, το άρθρο 20 απαιτεί από έναν ανθρώπινο συντονιστή περιεχομένου να επανεξετάζει κάθε απόφαση εποπτείας περιεχομένου κατόπιν αιτήματος; Και πρέπει;

Αντλώντας από την ευρύτερη βιβλιογραφία σχετικά με τις απαιτήσεις «άνθρωπος στο βρόχο» στη διακυβέρνηση της τεχνητής νοημοσύνης (AI), υποστηρίζουμε ότι η τυπική απαίτηση από έναν άνθρωπο να εξετάζει κάθε παράπονο είναι κανονιστικά προβληματική και πρακτικά αντιπαραγωγική. Καθορίσαμε μια εναλλακτική προσέγγιση, στην οποία η ανθρώπινη αναθεώρηση προσανατολίζεται στη βελτίωση των αυτοματοποιημένων συστημάτων ελέγχου σε συστημικό επίπεδο, αντί να διορθώνει μεμονωμένες αποφάσεις. Υποστηρίζουμε ότι αυτό επιτρέπεται από το κείμενο της DSA και ότι είναι προτιμότερο από κανονιστική άποψη ως τρόπος επίτευξης των τελικών στόχων πολιτικής της DSA για την πρόληψη της αυθαιρεσίας και των διακρίσεων με μέτρο.

Τι επίπεδο ανθρώπινης αναθεώρησης απαιτεί το άρθρο 20;

Το άρθρο 20 απαιτεί από τις διαδικτυακές πλατφόρμες να δημιουργούν συστήματα «εύκολης πρόσβασης, φιλικά προς τον χρήστη» που επιτρέπουν στους χρήστες να διαμαρτύρονται για οποιαδήποτε απόφαση μετριοπάθειας. Αυτό περιλαμβάνει όλα τα είδη ενεργειών (ή αδράνειας) σε περιεχόμενο που έχει επισημανθεί – από τον τερματισμό ολόκληρου λογαριασμού έως την απόκρυψη ενός μεμονωμένου σχολίου – καθώς και αποφάσεις για τη μη κατάργηση περιεχομένου και αποφάσεις για μείωση της ορατότητας ή επιβολή άλλων παρεμβάσεων εκτός της κατάργησης . Αυτό συνεπάγεται έναν τεράστιο αριθμό αποφάσεων που ενδέχεται να υπόκεινται σε αναθεώρηση. Το άρθρο 20 παράγραφος 4 απαιτεί από τις πλατφόρμες να εξετάζουν τις καταγγελίες «έγκαιρα, χωρίς διακρίσεις, επιμελή και αυθαίρετο τρόπο» και να αντιστρέφουν αποφάσεις όταν η καταγγελία δείχνει ότι δεν δικαιολογούνται από το νόμο ή από τις πολιτικές περιεχομένου των πλατφορμών.

Η συντριπτική πλειοψηφία των αποφάσεων εποπτείας που ενδέχεται να υπόκεινται σε καταγγελίες για το άρθρο 20 είναι πλήρως αυτοματοποιημένες – ο μόνος εφικτός τρόπος παρακολούθησης περιεχομένου σε πλατφόρμες με εκατομμύρια ή δισεκατομμύρια χρήστες. Ως εκ τούτου, ένα κρίσιμο ερώτημα είναι εάν το άρθρο 20 απαιτεί την εξέταση των καταγγελιών από ανθρώπινους συντονιστές. Η απάντηση όχι μόνο συνεπάγεται δυνητικά τεράστιες επενδύσεις χρόνου και πόρων εργασίας, αλλά έχει επίσης σημαντικές επιπτώσεις για τη συνολική αποτελεσματικότητα του DSA.

Επιφανειακά, η απαίτηση από τους ανθρώπινους συντονιστές να εξετάζουν τα παράπονα θα μπορούσε να φαίνεται ως η πιο φυσική ερμηνεία του άρθρου 20. Ωστόσο, μια προσεκτική ανάγνωση υποδηλώνει το αντίθετο. Η βασική διάταξη είναι το άρθρο 20 παράγραφος 6, το οποίο απαιτεί «οι αποφάσεις [να λαμβάνονται] υπό την επίβλεψη προσωπικού με τα κατάλληλα προσόντα, και όχι αποκλειστικά βάσει αυτοματοποιημένων μέσων» (η υπογράμμιση μας). Αυτό φαίνεται να αφήνει χώρο στους ανθρώπους να διαδραματίσουν έναν πιο υψηλού επιπέδου εποπτικό ρόλο, αντί να εξετάζουν κάθε μεμονωμένο παράπονο. Περαιτέρω καθοδήγηση παρέχεται από την αιτιολογική σκέψη 58:

«Οι πάροχοι διαδικτυακών πλατφορμών θα πρέπει να υποχρεούνται να προβλέπουν εσωτερικά συστήματα διεκπεραίωσης παραπόνων , τα οποία πληρούν ορισμένες προϋποθέσεις που στοχεύουν να διασφαλίσουν ότι τα συστήματα είναι εύκολα προσβάσιμα και οδηγούν σε γρήγορα, αμερόληπτα, αυθαίρετα και δίκαια αποτελέσματα και υπόκεινται σε ανθρώπινη αναθεώρηση όπου χρησιμοποιούνται αυτοματοποιημένα μέσα». (η έμφαση μας)

Βασικά, το «υπόκεινται σε ανθρώπινη εξέταση» εδώ αναφέρεται σε «συστήματα», όχι σε «καταγγελίες». Επομένως, το σύστημα διεκπεραίωσης παραπόνων στο σύνολό του πρέπει να υπόκειται σε ανθρώπινη εξέταση και επίβλεψη – όχι απαραίτητα κάθε μεμονωμένη απόφαση μετριοπάθειας. Στις επόμενες ενότητες, θα υποστηρίξουμε ότι αυτή η ερμηνεία δεν είναι απλώς νομικά επιτρεπτή, αλλά είναι ιδιαίτερα προτιμότερη ως τρόπος βελτίωσης της ποιότητας, της αξιοπιστίας και της δικαιοσύνης του ελέγχου περιεχομένου.

Ποιο είναι το νόημα της ανθρώπινης αναθεώρησης;

Ο βέλτιστος σχεδιασμός των διαδικασιών ανθρώπινης αξιολόγησης με έλεγχο περιεχομένου εξαρτάται τελικά από τους σκοπούς που προορίζονται να εξυπηρετήσουν. Ωστόσο, το DSA παρέχει εκπληκτικά λίγες οδηγίες σχετικά με αυτό. Η αιτιολογική σκέψη 58 αναφέρει ότι, «Οι αποδέκτες της υπηρεσίας θα πρέπει να μπορούν να αμφισβητούν εύκολα και αποτελεσματικά τις αποφάσεις [συντονισμού] […] Ως εκ τούτου, οι πάροχοι διαδικτυακών πλατφορμών θα πρέπει να υποχρεούνται να παρέχουν εσωτερικά συστήματα διαχείρισης παραπόνων». Ο απώτερος σκοπός να επιτραπεί στους αποδέκτες να αμφισβητήσουν τις αποφάσεις μετριοπάθειας δεν δηλώνεται.

Περνώντας στην ευρύτερη βιβλιογραφία για την ανθρώπινη επίβλεψη στη διακυβέρνηση της τεχνητής νοημοσύνης, η Rebecca Crootof, η Margot Kaminski και ο W. Nicholson Price εντοπίζουν έξι πιθανούς λόγους για την επιβολή απαιτήσεων «άνθρωπος στον βρόχο»:

«Οι άνθρωποι μπορούν να παίξουν (1) διορθωτικούς ρόλους για τη βελτίωση της απόδοσης του συστήματος, συμπεριλαμβανομένης της διόρθωσης σφαλμάτων, καταστάσεων και μεροληψίας. (2) αιτιολογικοί ρόλοι για την αύξηση της νομιμότητας του συστήματος παρέχοντας αιτιολογία για τις αποφάσεις. (3) αξιωματικοί ρόλοι για την προστασία της αξιοπρέπειας των ανθρώπων που θίγονται από την απόφαση· (4) ρόλοι λογοδοσίας για την κατανομή ευθύνης ή μομφής. (5) ρόλοι διεπαφής για τη σύνδεση των συστημάτων με τους ανθρώπινους χρήστες. και (6) ρόλοι «θερμού σώματος» για τη διατήρηση των ανθρώπινων θέσεων εργασίας».

Λαμβάνοντας υπόψη τη σχέση τους με την εποπτεία περιεχομένου, θέλουμε πρώτα να τονίσουμε ότι το (6) είναι εδώ ένας πολύ κακός λόγος. Οι συνθήκες εργασίας των συντονιστών είναι εμφανώς φρικτές. Οι μεγάλες πλατφόρμες αναθέτουν το μεγαλύτερο μέρος αυτής της εργασίας σε χώρες του Παγκόσμιου Νότου με χαμηλότερους μισθούς και λιγότερη προστασία των εργαζομένων, αλλά ακόμη και για τους εργαζόμενους στις αγορές του Παγκόσμιου Βορρά –συχνά μετανάστες με λίγες άλλες επιλογές απασχόλησης– χαρακτηρίζεται από γρήγορους ρυθμούς και αγχωτική εργασία, κακές αμοιβές και έντονη διοικητική επιτήρηση. Ενώ αυτές οι συνθήκες θα μπορούσαν να βελτιωθούν, δεν υπάρχει τίποτα στον DSA (ένας υποτιθέμενος «περιεκτικός» κανονισμός για τη διακυβέρνηση του διαδικτυακού περιεχομένου) που να προσπαθεί να το πετύχει – ένα σημαντικό σημείο στο οποίο θα επανέλθουμε αργότερα. Ο έλεγχος επιβλαβούς ή προσβλητικού περιεχομένου είναι επίσης, σε κάποιο βαθμό, μια εγγενώς επαναλαμβανόμενη, δυσάρεστη και ψυχολογικά επιβαρυντική δουλειά.

Από αυτό προκύπτει ότι ο λόγος (3) είναι επίσης αμφισβητούμενος. Δεν πιστεύουμε ότι εξυπηρετεί την ανθρώπινη αξιοπρέπεια το να επιτρέπουμε σε κάθε χρήστη των μέσων κοινωνικής δικτύωσης να απαιτεί από κάποιον κακοπληρωμένο και με κακή μεταχείριση εργαζόμενος στην άλλη άκρη του κόσμου να κοιτάξει γρήγορα το περιεχόμενό του. Ο λόγος (4) είναι επίσης λιγότερο σχετικός με την εποπτεία περιεχομένου, καθώς οι διατάξεις του DSA για την ευθύνη των ενδιάμεσων και τη ρυθμιστική εποπτεία ρυθμίζουν ήδη την ευθύνη των πλατφορμών για αποφάσεις εποπτείας. Οι πιο σχετικοί στόχοι για τις απαιτήσεις "human in the loop" σε σχέση με το άρθρο 20 είναι επομένως (1) η βελτίωση της απόδοσης των συστημάτων μετριοπάθειας, συμπεριλαμβανομένης της διόρθωσης σφαλμάτων και της μεροληψίας, και (2) και (5), η αιτιολόγηση αποφάσεων και η λήψη τους κατανοητό στους χρήστες.

Ο ανθρώπινος έλεγχος κάθε επίδικης απόφασης δεν είναι ούτε πρακτικός ούτε επιθυμητός

Για να επιτύχουμε αποτελεσματικά αυτούς τους στόχους, ξεκινάμε με δύο παρατηρήσεις σχετικά με τους ρόλους που δεν πρέπει να διαδραματίζουν οι άνθρωποι με μέτρο περιεχομένου. Πρώτον, δεν είναι ούτε πρακτικό ούτε επιθυμητό να αναθεωρούν οι άνθρωποι κάθε αμφισβητούμενη αυτοματοποιημένη απόφαση μετριοπάθειας. Η αυτοματοποιημένη εποπτεία υπάρχει σε μεγάλο βαθμό επειδή οι άνθρωποι δεν μπορούν να λειτουργήσουν στην κλίμακα που απαιτείται για την έγκαιρη δράση σε περιεχόμενο που φιλοξενείται σε μεγάλες πλατφόρμες. Σε τρεις μήνες, το YouTube αφαίρεσε 9 εκατομμύρια βίντεο και 1,16 δισεκατομμύρια σχόλια . Όπως σημειώνει η Evelyn Douek , «ακόμα και το μικρότερο τμήμα των αποφάσεων ελέγχου περιεχομένου για τις οποίες ασκείται έφεση θα εξακολουθούσε να υπερφορτώνει οτιδήποτε άλλο εκτός από ένα πρακτικά μεγάλο εργατικό δυναμικό».

Αναμφισβήτητα, το μετριοπαθές εργατικό δυναμικό έχει ήδη γίνει πρακτικά μεγάλο και υπερφορτωμένο. Μόνο το Facebook έχει 15.000 συντονιστές περιεχομένου σε όλο τον κόσμο . Ωστόσο, οι συντονιστές είναι επίσης πολύ καταπονημένοι, απαιτείται να ακολουθούν αυστηρά καθορισμένες ροές εργασίας και να ανταποκρίνονται σε απαιτητικές ποσοστώσεις που δεν επιτρέπουν τη λεπτομερή εξέταση των μεμονωμένων αποφάσεων. Η έρευνα για τους «άνθρωπους στο βρόχο» στην τεχνητή νοημοσύνη δείχνει ότι είναι γενικά δύσκολο για τους ανθρώπους να εντοπίσουν και να διορθώσουν λάθη, λόγω της «προκατάληψης αυτοματισμού», όπου οι άνθρωποι τείνουν να εμπιστεύονται και να αναβάλλουν το λογισμικό λήψης αποφάσεων. Η αύξηση του φόρτου εργασίας των εποπτών είναι λιγότερο πιθανό να βελτιώσει τις αποφάσεις εποπτείας περιεχομένου παρά να οδηγήσει σε πιο συχνή σφραγίδα αυτοματοποιημένων αποφάσεων.

Επιπλέον, εάν το άρθρο 20 ερμηνεύεται ότι βασίζεται σε ένα τεράστιο εργατικό δυναμικό για την αναθεώρηση και τη διόρθωση ενός τεράστιου όγκου αμφισβητούμενων αυτοματοποιημένων αποφάσεων μετριοπάθειας, είναι αξιοσημείωτο ότι το DSA δεν περιέχει ουσιαστικά καμία ρύθμιση για τις αμοιβές, τις συνθήκες εργασίας, τα προσόντα και την κατάρτιση αυτών των εργαζομένων (πέρα από ορισμένες βασικές απαιτήσεις διαφάνειας για πολύ μεγάλες διαδικτυακές πλατφόρμες, που ορίζονται στο άρθρο 42). Μια άκαμπτη και κακώς καθορισμένη απαίτηση ανθρώπινης επίβλεψης που απαιτεί ουσιαστικά ένα μόνιμο επίπεδο χαμηλών αμειβόμενων, καταπονημένων και υπερτονισμένου επόπτη περιεχομένου δεν είναι μόνο από μόνη της κανονιστικά προβληματική, αλλά φαίνεται επίσης ως ένας μη βέλτιστος τρόπος βελτίωσης της ποιότητας της μετριοπάθειας.

Δεύτερον, ακόμη και αν υποθέσουμε ότι οι πλατφόρμες θα μπορούσαν να ξεπεράσουν τους περιορισμούς του εργατικού δυναμικού, είναι αμφίβολο ότι ένα σύνολο συνεπών αιτιολογημένων αποφάσεων που επιλύουν παράπονα ελέγχου περιεχομένου είναι ένα ρεαλιστικό ή ακόμη και επιθυμητό αποτέλεσμα. Η κλίμακα, η πολυπλοκότητα και η ποικιλομορφία του περιεχομένου που διατίθεται σε μεγάλες διαδικτυακές πλατφόρμες σημαίνει ότι « η επίκληση κανόνων συλλογιστικής και προηγουμένου δικαστικού τύπου είναι καταδικασμένη να αποτύχει ». Η κατάργηση της διακριτικής ευχέρειας μιας πλατφόρμας ως προς το ποιες αποφάσεις υπόκεινται σε περαιτέρω επανεξέταση εξακολουθεί να αφήνει πολλά περιθώρια προσαρμογής του συλλογισμού και του αποτελέσματος αυτών των αναθεωρήσεων για να περιοριστεί ο τρέχων ή μελλοντικός αντίκτυπός τους, όπως έδειξε μια εντατική μελέτη του Meta Oversight Board . Και ακόμη και ένα πλήρως ανεξάρτητο όργανο αναθεώρησης που εφαρμόζει πιστά τις δικές του αιτιολογημένες αποφάσεις σε αναδυόμενες υποθέσεις, συχνά θα έπρεπε να απομακρυνθεί από αυτό το προηγούμενο ή την καθοδήγηση μιας πλατφόρμας. Οι κοινοτικές κατευθυντήριες γραμμές αναθεωρούνται διαρκώς ως απάντηση στις μεταβαλλόμενες συνθήκες που αυτές οι κατευθυντήριες γραμμές δεν είχαν προβλέψει και για τις οποίες δεν ταιριάζουν καλά.

Μια καλύτερη προσέγγιση στην ανθρώπινη επίβλεψη

Όλα τα συστήματα ελέγχου περιεχομένου είναι υβρίδια ανθρώπου/μηχανής ανεξάρτητα από τον βαθμό αυτοματισμού. Το λογισμικό εποπτείας έχει σχεδιαστεί από ανθρώπινους μηχανικούς και τα συστήματα AI εκπαιδεύονται σε ανθρώπινες αποφάσεις και αξιολογήσεις, ενώ τα συστήματα αντιστοίχισης κατακερματισμού (όπως το σύστημα ContentID του YouTube για επιβολή πνευματικών δικαιωμάτων) έχουν σχεδιαστεί για την αναζήτηση αντιγράφων αρχείων αναφοράς που παρέχονται από τους κατόχους δικαιωμάτων. Με βάση το γεγονός ότι αυτά τα υβριδικά συστήματα είναι ο κατάλληλος στόχος για εποπτεία, αντί για μεμονωμένες αμφισβητούμενες αποφάσεις, προσδιορίζουμε τέσσερις βασικούς παράγοντες για τη βελτίωση της ακρίβειας και της αναλογικότητάς τους.

Πρώτον, αντί να απαιτείται πρόχειρη ανθρώπινη αναθεώρηση κάθε μεμονωμένης απόφασης, ο καλύτερος τρόπος αξιολόγησης και βελτίωσης της αυτοματοποιημένης εποπτείας είναι μέσω πιο συστηματικής επίβλεψης: για παράδειγμα, η απαίτηση από εμπειρογνώμονες πολιτικής να εξετάζουν στατιστικά αντιπροσωπευτικά δείγματα αποφάσεων. Τα σημερινά προηγμένα εργαλεία τεχνητής νοημοσύνης, τα οποία αναπτύσσονται όλο και περισσότερο από μεγάλες πλατφόρμες για εργασίες μετριασμού που προηγουμένως θα απαιτούσαν ανθρώπινη παρέμβαση, βασίζονται σε μοτίβα εκμάθησης από τεράστια σύνολα δεδομένων. Ωστόσο, οι πρόσφατες τεχνολογικές εξελίξεις βασίζονται ολοένα και περισσότερο σε μικρότερους όγκους δεδομένων υψηλής ποιότητας , που επιμελούνται προσεκτικά ή ακόμη και παράγονται κατά παραγγελία από υψηλά καταρτισμένους εργαζομένους. Ένα μικρότερο, καλύτερα εκπαιδευμένο και καλύτερα αμειβόμενο εργατικό δυναμικό μετριοπάθειας, το οποίο αξιολογεί προσεκτικά και παρέχει λεπτομερή ανατροφοδότηση για ένα υποσύνολο αποφάσεων, μπορεί να επιβλέπει και να βελτιώσει τα συστήματα εποπτείας πιο αποτελεσματικά από μια στρατιά χαμηλόμισθων εργαζομένων με κλικ – καθώς και να είναι προτιμότερο από προοπτική των εργασιακών δικαιωμάτων. Ομοίως, όπου εντοπίζονται αστοχίες σε εργαλεία αντιστοίχισης κατακερματισμού, όπως το ContentID, τα οποία σαρώνουν και αφαιρούν αντίγραφα εκατομμυρίων αρχείων , θα ήταν πιο παραγωγικό να εντοπίζονται συστηματικά ελαττώματα στις διαδικασίες (κακής) αναγνώρισης μη αδειοδοτημένης και παράνομης αναπαραγωγής περιεχομένου σε αυτά αναφορά στις βάσεις δεδομένων, αντί να προσπαθεί απλώς να διορθώνει τα λάθη αποσπασματικά.

Δεύτερον, για να είναι αποτελεσματικό αυτού του είδους η συστηματική αναθεώρηση, οι ανθρώπινοι αναθεωρητές πρέπει να είναι σε θέση να κατανοήσουν τι ενεργοποιεί την αυτόματη επισήμανση. Με βάση την εκτενή ερευνητική βιβλιογραφία σχετικά με την επεξήγηση της τεχνητής νοημοσύνης, τα συστήματα εποπτείας θα πρέπει να σχεδιαστούν ώστε να παρέχουν στους ανθρώπινους επόπτες « σημαντικές πληροφορίες σχετικά με τη λογική που εμπλέκεται » στις αποφάσεις μετριοπάθειας. Αντίθετα, τα σχόλιά τους θα βελτιώσουν τη λήψη αποφάσεων του αυτοματοποιημένου συστήματος στο μέλλον. Για παράδειγμα, εάν το μηχάνημα απέτυχε να διακρίνει τις αναφορές ειδήσεων για τρομοκρατική δραστηριότητα από την προπαγάνδα στρατολόγησης τρομοκρατών, ο ανθρώπινος κριτικός θα μπορούσε να εντοπίσει χαρακτηριστικά που βοηθούν στην ενίσχυση της διάκρισης. Αυτή η «διμερής επεξήγηση» θα πρέπει επίσης να λαμβάνει υπόψη την απαίτηση του άρθρου 20 για εποπτεία από «κατάλληλα καταρτισμένο» προσωπικό. Οι αναθεωρητές θα πρέπει να έχουν τα προσόντα και την ικανότητα να διευκολύνουν τις αναγνώσιμες από μηχανή βελτιώσεις πολιτικής που μπορούν να ελαχιστοποιήσουν τα μελλοντικά σφάλματα.

Τρίτον, η ανθρώπινη επίβλεψη θα πρέπει να είναι ανάλογη με διαφορετικούς τύπους αποφάσεων μετριοπάθειας. Δεδομένων των πιθανών οικονομικών, φήμης και συναισθηματικών συνεπειών όταν καταργούνται ολόκληροι οι λογαριασμοί των χρηστών, τέτοιες αποφάσεις θα πρέπει να ελέγχονται ενδελεχέστερα από, για παράδειγμα, την κατάργηση εσόδων από περιεχόμενο ή την απόκρυψη ενός σχολίου. Η ουσιαστική αναθεώρηση των αποπλατφορμικών αποφάσεων δεν θα πρέπει να προορίζεται για τους εν ενεργεία προέδρους : θα προτείναμε γενικά ότι, εάν κάποιος χάσει εντελώς την πρόσβαση σε μια πλατφόρμα, θα πρέπει να μπορεί να προσφύγει σε έναν ανθρώπινο εκπρόσωπο εξυπηρέτησης πελατών (ενδεχομένως με ορισμένες στενές εξαιρέσεις, όπως π. ως spam και διπλότυποι λογαριασμοί). Σε αυτές τις σοβαρές περιπτώσεις, η ανθρώπινη αναθεώρηση δεν πρέπει να περιλαμβάνει απλώς μια γρήγορη ματιά σε μια απόφαση, αλλά θα πρέπει να επιτρέπει την ουσιαστική επικοινωνία με τους συντονιστές . Επιπλέον, όπου η μηχανική μάθηση οδήγησε σε μια εσφαλμένη απόφαση αποπλατφόρμασης, ο ανθρώπινος επόπτης θα πρέπει να διασφαλίζει ότι η μηχανή μαθαίνει από το λάθος της. Αυτό θα μπορούσε να σημαίνει επανεξέταση και επανασχολιασμό των σχετικών τμημάτων περιεχομένου που χρησιμοποιούνται για την εκπαίδευση των ταξινομητών μηχανικής εκμάθησης που συνέβαλαν στη λανθασμένη απόφαση.

Τέλος, οι ανθρώπινοι επόπτες μπορούν να εκτιμήσουν ποιοι τύποι περιεχομένου δημιουργούν ιδιαίτερες ανησυχίες σε ένα συγκεκριμένο κοινωνικό, πολιτιστικό ή πολιτικό πλαίσιο: για παράδειγμα, πολιτική παραπληροφόρηση ενόψει μιας στενής εκλογής ή παραπληροφόρηση εμβολίων κατά τη διάρκεια μιας πανδημίας. Το έμπειρο προσωπικό μπορεί να διαθέσει δυναμικά περιορισμένους ανθρώπινους και υπολογιστικούς πόρους για την αντιμετώπιση τρεχουσών και αναδυόμενων απειλών. Και δεδομένου ότι η ίδια η DSA μπορεί να αυξήσει τον κίνδυνο « συντονισμένης επισήμανσης », συμπεριλαμβανομένης της κακής χρήσης ή χειραγώγησης του συστήματος παραπόνων του άρθρου 20, οι πλατφόρμες θα πρέπει να αφιερώσουν μερικούς από τους πόρους της επιστήμης δεδομένων και της κυβερνοασφάλειας στην παρακολούθηση και αντιμετώπιση αυτών των κινδύνων – όπως έκαναν ιστορικά για απειλές όπως συντονισμένες εκστρατείες παραπληροφόρησης .

συμπεράσματα

Στο πλαίσιο της συγκράτησης περιεχομένου, έχουμε επιχειρηματολογήσει ενάντια στις φορμαλιστικές ερμηνείες των απαιτήσεων ανθρώπινης επίβλεψης που απαιτούν απλώς από ένα άτομο να επιβεβαιώνει αλγοριθμικές αποφάσεις – είτε με βάση την προϋπόθεση ότι το «ανθρώπινο άγγιγμα» με κάποιο τρόπο κάνει τις αποφάσεις να σέβονται περισσότερο την αξιοπρέπεια των ανθρώπων, είτε Η αισιόδοξη υπόθεση ότι το να βλέπουν οι άνθρωποι μια απόφαση αρκεί για να διορθωθούν αλγοριθμικά λάθη και μεροληψία. Αντίθετα, η ανθρώπινη αναθεώρηση σύμφωνα με το άρθρο 20 DSA θα πρέπει να προσανατολίζεται στη βελτίωση της αξιοπιστίας και της επεξήγησης των αλγοριθμικών συστημάτων ελέγχου στο σύνολό τους, καθώς και στην παροχή ουσιαστικής επικοινωνίας και υποστήριξης στους χρήστες στις πιο συνεπείς αποφάσεις (deplatforming).

Αυτές οι βασικές αρχές έχουν ευρύτερη συνάφεια με τη ρύθμιση της τεχνολογίας. Για παράδειγμα, οι απαιτήσεις "human in the loop" καθορίζονται επίσης στον GDPR της ΕΕ και στον προτεινόμενο νόμο AI , καθώς και σε διάφορα νομικά πλαίσια των ΗΠΑ . Τελικά, ο βέλτιστος σχεδιασμός των υβριδικών συστημάτων λήψης αποφάσεων πρέπει να προσαρμοστεί σε συγκεκριμένα πλαίσια. Ωστόσο, η προσέγγιση που ορίσαμε εδώ – η σκόπιμη ερμηνεία των απαιτήσεων του «human in the loop» και η εξέταση του τρόπου με τον οποίο οι διαδικασίες αναθεώρησης μπορούν να σχεδιαστούν για να εξυπηρετούν τους υποκείμενους κανονιστικούς και πολιτικούς στόχους της νομοθεσίας, αντί να επιλέγουμε απλώς ένα πλαίσιο – θα μπορούσε επίσης να είναι χρήσιμη. σημείο εκκίνησης για την ερμηνεία τέτοιων απαιτήσεων σε διάφορους τομείς της ρύθμισης της τεχνητής νοημοσύνης.


Αυτή είναι μια αυτόματη μετάφραση μιας ανάρτησης που δημοσιεύτηκε στο Verfassungsblog στη διεύθυνση URL https://verfassungsblog.de/a-systemic-approach-to-implementing-the-dsas-human-in-the-loop-requirement/ στις Thu, 22 Feb 2024 16:49:18 +0000.