AI Act, τι υπάρχει και τι δεν υπάρχει

AI Act, τι υπάρχει και τι δεν υπάρχει

Πράξη AI: Η ευρωπαϊκή νομοθεσία στοχεύει να διασφαλίσει ότι τα συστήματα που διατίθενται στην ευρωπαϊκή αγορά είναι ασφαλή και σέβονται τα θεμελιώδη δικαιώματα και τις αξίες της ΕΕ. Εδώ είναι οι απαράδεκτες αιτήσεις βάσει του νόμου AI

Η Ευρώπη κινείται προς τη ρύθμιση της τεχνητής νοημοσύνης. Ο νόμος AI είναι έτοιμος. Οι Βρυξέλλες έχουν μετακινηθεί σε ανεξερεύνητο έδαφος, αλλά πρέπει να καθοριστεί υπό το πρίσμα των ευκαιριών και των κινδύνων που απορρέουν από την ανάπτυξη της τεχνητής νοημοσύνης, η οποία έχει εκραγεί με την εξάπλωση των chatbots όπως το ChatGPT.

AI ACT, ΕΔΩ ΤΑ ΝΕΑ

Ο σκληρός πυρήνας του νόμου είναι η υιοθέτηση μιας προσέγγισης που βασίζεται στον κίνδυνο. Με άλλα λόγια, επιβάλλεται μια σειρά από υποχρεώσεις στους προμηθευτές και τους προγραμματιστές συστημάτων τεχνητής νοημοσύνης ανάλογα με τα διαφορετικά επίπεδα κινδύνου που εντοπίζονται. Ένα από τα πιο σημαντικά κεφάλαια, στο οποίο η διαπραγμάτευση σταμάτησε για ώρες, είναι αυτό των πρακτικών τεχνητής νοημοσύνης που απαγορεύτηκαν επειδή αποτελούν απαράδεκτο κίνδυνο για την ασφάλεια και τα θεμελιώδη δικαιώματα.

ΤΟ ΕΡΩΤΗΜΑ ΤΗΣ ΑΝΑΓΝΩΡΙΣΗΣ ΠΡΟΣΩΠΟΥ

Σύμβολο όλων των μαχών είναι η απαγόρευση βιομετρικών συστημάτων ταυτοποίησης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου, η χρήση των οποίων πλέον θα περιορίζεται σε συγκεκριμένες περιπτώσεις.

ΤΑ ΔΙΑΦΟΡΙΚΑ ΣΗΜΕΙΑ

Μεταξύ των αμφιλεγόμενων σημείων, επίσης αυτό για τα μοντέλα θεμελίωσης όπως το GPT-4, στη βάση του ChatGPT. Η συμφωνία περιλαμβάνει πιο αυστηρές υποχρεώσεις για μοντέλα υψηλού αντίκτυπου με συστημικό κίνδυνο. Κανόνες που το Βερολίνο, το Παρίσι και εν μέρει η Ρώμη θα ήθελαν να μετατρέψουν σε κώδικες συμπεριφοράς, φοβούμενοι ότι τα βάρη που επιβάλλονται θα καταπνίξουν την καινοτομία στην ΕΕ.

ΟΛΑ ΤΑ ΣΗΜΕΙΑ ΤΟΥ AI ACT (φύλλο Agi)

Μετά από 3 ημέρες διαπραγματεύσεων, το Ευρωπαϊκό Συμβούλιο και το Ευρωπαϊκό Κοινοβούλιο κατέληξαν σε συμφωνία σχετικά με την πρόταση για εναρμονισμένους κανόνες για την τεχνητή νοημοσύνη (AI). Ο κανονισμός, ο πρώτος του είδους του στον κόσμο, στοχεύει να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην Ευρωπαϊκή Ένωση είναι ασφαλή και σέβονται τα θεμελιώδη δικαιώματα και τις αξίες της ΕΕ, καθώς και να τονώσει τις επενδύσεις και την καινοτομία στον τομέα στην Ευρώπη.

Η κύρια ιδέα είναι να ρυθμιστεί η τεχνητή νοημοσύνη με βάση την ικανότητά της να βλάπτει την κοινωνία, ακολουθώντας μια «προσέγγιση με βάση τον κίνδυνο», η οποία μεταβαίνει από ελάχιστο κίνδυνο σε απαράδεκτο κίνδυνο: όσο υψηλότερος είναι ο κίνδυνος, τόσο αυστηρότεροι θα είναι οι κανόνες. Η πλειοψηφία των συστημάτων τεχνητής νοημοσύνης ανήκει στην κατηγορία ελάχιστου κινδύνου.

Τα συστήματα τεχνητής νοημοσύνης που θεωρούνται «υψηλού κινδύνου» θα πρέπει να συμμορφώνονται με αυστηρούς κανόνες, όπως συστήματα μετριασμού κινδύνου, καταγραφή δραστηριοτήτων, λεπτομερή τεκμηρίωση, σαφείς πληροφορίες χρήστη, ανθρώπινη επίβλεψη και υψηλό επίπεδο ασφάλειας στον κυβερνοχώρο.

Μεταξύ των συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου είναι ορισμένες κρίσιμες υποδομές στους τομείς του φυσικού αερίου, της ηλεκτρικής ενέργειας και του νερού, αλλά και ιατρικές συσκευές, συστήματα πρόσβασης σε εκπαιδευτικά ιδρύματα ή για στρατολόγηση προσωπικού και συστήματα που χρησιμοποιούνται από τις υπηρεσίες επιβολής του νόμου, συνοριακούς ελέγχους και την απονομή δικαιοσύνης. Τα συστήματα βιομετρικής αναγνώρισης εμπίπτουν επίσης στην κατηγορία υψηλού κινδύνου.

Ο «απαράδεκτος κίνδυνος» αφορά συστήματα τεχνητής νοημοσύνης που θεωρείται ότι απειλούν τα θεμελιώδη δικαιώματα των ανθρώπων και ως εκ τούτου θα απαγορευθούν: συστήματα τεχνητής νοημοσύνης ή εφαρμογές που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των ανθρώπων, για παράδειγμα παιχνίδια που, μέσω φωνητικού βοηθού, ενθαρρύνουν επικίνδυνη συμπεριφορά σε ανηλίκους, ή συστήματα που επιτρέπουν την κοινωνική βαθμολογία από τις κυβερνήσεις και τις εφαρμογές πρόβλεψης αστυνόμευσης.

Έπειτα, υπάρχει η κατηγορία των συγκεκριμένων κινδύνων, όπως τα chatbots. Όταν τα χρησιμοποιούν, οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με ένα μηχάνημα. Τα Deepfakes και άλλο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη θα πρέπει να επισημαίνονται ως τέτοια και οι χρήστες θα πρέπει να ενημερώνονται όταν χρησιμοποιούν βιομετρικό σύστημα κατηγοριοποίησης ή αναγνώρισης συναισθημάτων. Οι προμηθευτές θα πρέπει να σχεδιάσουν συστήματα έτσι ώστε το συνθετικό περιεχόμενο κειμένου/εικόνας/ήχου/βίντεο να αποδίδεται σε μορφή αναγνώσιμη από μηχανή και να ανιχνεύεται ως τεχνητά δημιουργημένο ή χειραγωγημένο.

Ο κανονισμός δεν εφαρμόζεται σε τομείς εκτός του πεδίου εφαρμογής του δικαίου της Ευρωπαϊκής Ένωσης και δεν πρέπει να επηρεάζει τις αρμοδιότητες των χωρών μελών σε θέματα εθνικής ασφάλειας. Ο νόμος περί τεχνητής νοημοσύνης δεν θα ισχύει τότε για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς ή αμυντικούς σκοπούς. Τέλος, η συμφωνία προβλέπει ότι ο κανονισμός δεν ισχύει για συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για αποκλειστικό σκοπό έρευνας και καινοτομίας ή για εκείνα που χρησιμοποιούν τεχνητή νοημοσύνη για μη επαγγελματικούς σκοπούς.

Η ΑΝΑΛΥΣΗ ΤΗΣ CORRIERE DELLA SERA

«Εάν μεγάλοι πάροχοι τεχνητής νοημοσύνης όπως η Google, η Meta ή η Microsoft θέλουν να συνεχίσουν να πωλούν τις υπηρεσίες τους σε πολίτες και επιχειρήσεις στην Ευρωπαϊκή Ένωση, θα πρέπει να εγγυηθούν και να πιστοποιήσουν την ποιότητα και τη διαφάνεια των αλγορίθμων και των δεδομένων. Είναι ένας από τους πυλώνες του Ευρωπαϊκού νόμου για την τεχνητή νοημοσύνη – έγραψε η Corriere della sera – Ένα από τα σχετικά σημεία παραμένει αυτό της ευθύνης των μεγάλων εταιρειών τεχνολογίας που θα κληθούν να λάβουν πιστοποίηση για τους αλγόριθμους που θα πρέπει να καθαριστούν προκαταλήψεις και για τα δεδομένα που πρέπει να έχουν συμμόρφωση με το περιβάλλον και την ασφάλεια».

ΟΙ ΚΑΙΡΟΙ ΤΗΣ ΑΙ ΔΡΑΣΗΣ

Η τελική ψηφοφορία επί του κειμένου του νόμου αναμένεται στις αρχές Φεβρουαρίου 2024. Από εκείνη τη στιγμή προγραμματίζονται οι πειραματικές φάσεις που προβλέπουν επίσης την εθελοντική προσχώρηση των εταιρειών στους νέους κανόνες που θα τεθούν σε ισχύ σε κλιμακωτούς χρόνους για να είναι πλήρως λειτουργικό το 2025, πρόσθεσε η Corriere della sera: «Υπάρχουν πολλά πρωτοποριακά και νέα στοιχεία στο κείμενο για το οποίο η Επιτροπή της Ursula von der Leyen έλαβε το πολιτικό ναι από το Κοινοβούλιο και το Συμβούλιο αργά το βράδυ της Παρασκευής, μετά από πολύ σκληρές διαπραγματεύσεις. Η πρόκληση είναι να κρατήσουμε τον πήχη μπροστά σε μια τεχνολογία που εξελίσσεται όσο καμία άλλη, θα αλλάξει τη ζωή μας και, προς το παρόν, προωθεί μια κολοσσιαία επιχείρηση».

ΠΩΣ ΘΑ ΑΝΤΙΜΕΤΩΠΙΣΟΥΝ ΤΙΣ ΤΕΧΝΙΤΕΣ ΕΙΚΟΝΕΣ

Το σύστημα μετριασμού του κινδύνου είναι η καρδιά του ρυθμιστικού συστήματος που εφαρμόζεται επίσης με την ίδρυση γραφείου τεχνητής νοημοσύνης στις Βρυξέλλες, με δικό του προϋπολογισμό και με καθήκον συντονισμού και εποπτείας. Μεμονωμένες χώρες καλούνται επίσης να δημιουργήσουν μια ανεξάρτητη Αρχή ή να αναθέσουν την εποπτεία της τεχνητής νοημοσύνης (AI) σε μια ήδη υπάρχουσα αρχή. Και, πάλι, εκτός από την προστασία της ιδιωτικής ζωής και των ατομικών και συλλογικών δικαιωμάτων, ο νόμος AI περιέχει τα αναμενόμενα όρια για την παραγωγή και τη διανομή "deep fakes" στο διαδίκτυο, ψευδούς περιεχομένου και προστασίας πνευματικών δικαιωμάτων. «Στην πρώτη περίπτωση – γράφει η Corriere della sera – επιβάλλεται η λεγόμενη ψηφιακή υδατογράφηση, η υποχρέωση των προγραμματιστών να εισάγουν τη συμβολοσειρά που προειδοποιεί για τα περιεχόμενα που δημιουργούνται από το AI. Η εικόνα του Πάπα με το πάπλωμα, για να παραθέσω μια διάσημη «ψεύτικη» εικόνα, θα μπορεί να φτάσει στις συσκευές μας μόνο με τη μπάρα που μας προειδοποιεί ότι πρόκειται για εφεύρεση τεχνητής νοημοσύνης. Όσον αφορά τα πνευματικά δικαιώματα, η χρήση περιεχομένου για την τροφοδοσία προηγμένων chatbot, όπως το ChatGpt ή το Gemini, δεν θα είναι δυνατή εάν ο συγγραφέας έχει ζητήσει να μην χρησιμοποιήσει το δικό του περιεχόμενο στο οποίο κατέχει τα δικαιώματα. Οι εταιρείες τεχνολογίας θα πρέπει να είναι διαφανείς σχετικά με το περιεχόμενο που έχει ήδη ληφθεί για την εκπαίδευση των αλγορίθμων, παρέχοντας «αρκετά λεπτομερείς» περιλήψεις του τι χρησιμοποιήθηκε».

ΣΧΟΛΙΟ ΜΟΛΙΝΑΡΗ (REPUBBLICA)

«Μεταξύ των πιο σημαντικών καινοτομιών – σχολίασε ο Maurizio Molinari, διευθυντής της εφημερίδας Repubblica – υπάρχουν οι δικλείδες ασφαλείας που πρέπει να τηρούνται από οποιονδήποτε αναπτύσσει και χρησιμοποιεί τεχνητή νοημοσύνη. τη χρήση βιομετρικής αναγνώρισης ατόμων από τις δυνάμεις ασφαλείας που περιορίζονται σε έρευνες για σοβαρά εγκλήματα, από τη σεξουαλική βία έως την τρομοκρατία· την υποχρέωση για όποιον δημιουργεί ψευδείς εικόνες να υποδεικνύει ξεκάθαρα ότι δεν είναι πραγματικές· σημαντικά πρόστιμα, έως και 7 τοις εκατό των παγκόσμιων εσόδων για εταιρείες, σε όσους παραβιάζουν τους νέους ευρωπαϊκούς κανονισμούς».

ΤΙ ΕΙΠΕ Ο ΦΟΝ ΝΤΕΡ ΛΕΙΕΝ

«Μια ιστορική στιγμή» ενθουσίασε η Ursula von der Leyen, γιορτάζοντας μια από τις ναυαρχίδες της θητείας της στην Ευρωπαϊκή Επιτροπή που υπέβαλε την πρόταση το 2021. Η νομοθεσία θα συμβάλει ουσιαστικά στην ανάπτυξη παγκόσμιων κανόνων και αρχών για μια τεχνητή νοημοσύνη με επίκεντρο τον άνθρωπο», υποστήριξε το νούμερο ένα του κοινοτικού στελέχους. Είναι το λεγόμενο «φαινόμενο των Βρυξελλών», με το οποίο η ΕΕ ελπίζει να καθοδηγήσει τους κανονισμούς της τεχνητής νοημοσύνης σε παγκόσμιο επίπεδο, όπως συνέβη με άλλους φακέλους.

ΣΧΟΛΙΟ URSO ΚΑΙ BUTTI

«Σημαντικό βήμα για την ανάπτυξη της τεχνητής νοημοσύνης» ήταν η πρόποση του υπουργού Επιχειρήσεων, Adolfo Urso, και του υφυπουργού της κυβέρνησης αρμόδιος για την Καινοτομία, Alessio Butti, στην πολιτική συμφωνία που θα πρέπει τώρα να λάβει έγκριση οριστικού των κρατών μελών, καθώς και του Ευρωπαϊκού Κοινοβουλίου. Και που αφορά έναν κεντρικό φάκελο για την κυβέρνηση της Giorgia Meloni: η τεχνητή νοημοσύνη θα είναι επίσης ένα από τα θέματα της G7 υπό την ιταλική προεδρία.

ΤΑ ΛΟΓΙΑ ΤΟΥ ΟΜΙΛΗΤΗ AI ACT

«Ορισμένες κυβερνήσεις, συμπεριλαμβανομένης της ιταλικής, θα ήθελαν πιο ελεύθερα χέρια για να θέσουν τους πολίτες υπό έλεγχο και να χαρακτηρίσουν το προφίλ, αλλά βρήκαν ένα ανυπέρβλητο τείχος από την πλευρά μας για την προστασία των ελευθεριών», ισχυρίστηκε ο επικεφαλής της αντιπροσωπείας του PD στο Ευρωπαϊκό Κοινοβούλιο και εισηγητής. του νόμου AI, Brando Benifei.

Η ΚΡΙΤΙΚΗ

Για τη Διεθνή Αμνηστία, ωστόσο, η ΕΕ έδωσε «το πράσινο φως στη δυστοπική ψηφιακή παρακολούθηση», δημιουργώντας «ένα καταστροφικό προηγούμενο σε παγκόσμιο επίπεδο». Επικριτική είναι και η Ευρωπαϊκή Ένωση Καταναλωτών (BEUC), η οποία διαμαρτύρεται για «την έκταση των κινδύνων από τους οποίους οι καταναλωτές θα προστατεύονται ακατάλληλα στο μέλλον».

ΣΧΟΛΙΟ ΜΠΕΝΑΝΤΗ

«Εμείς οι Ευρωπαίοι πρέπει να είμαστε χαρούμενοι γιατί ο νόμος για την τεχνητή νοημοσύνη μας προστατεύει και μας προστατεύει. Είμαστε Ευρωπαίοι. Και ακριβώς υπό το πρίσμα αυτό δεν μπορούμε να σκεφτούμε ότι κάτι θα εισβάλει στην αγορά μας δημιουργώντας πιθανούς κινδύνους χωρίς να τους έχουμε αξιολογήσει πρώτα. Θα αργήσει κάποια τεχνολογία; Υπομονή". Ο Πάολο Μπενάντι, καθηγητής του Gregoriana και το μοναδικό Ιταλό μέλος της Επιτροπής Τεχνητής Νοημοσύνης των Ηνωμένων Εθνών, δήλωσε αυτό στη Repubblica . Ειδικότερα, εκτιμά το γεγονός ότι ο νόμος AI δίνει τη δυνατότητα στους πολίτες να ασκήσουν έφεση. Για παράδειγμα, σε σχέση με τον τρόπο επεξεργασίας των βιομετρικών δεδομένων. Το να λέμε ότι στην Ευρώπη δεν είναι δυνατόν να μαζέψουμε τα πρόσωπα των ανθρώπων είναι καλά νέα». Σχετικά με την «αναγνώριση συναισθημάτων» δηλώνει «αν ακούσουμε αυτή τη θεωρία, τότε μπορούμε να δώσουμε εντολή στην τεχνητή νοημοσύνη να διαβάσει δεδομένα που μας ερμηνεύουν ως βιολογικές μηχανές. Θα μπορούσαμε να βρεθούμε μπροστά σε μια μηχανή που μας πείθει με ένα κείμενο και που μπορεί επίσης να μας χειραγωγήσει, σταματώντας λίγο πριν από το επίπεδο της συνείδησης. Το να είσαι χειραγωγημένος και ελεγχόμενος είναι ένα σενάριο που ανήκει στη χειρότερη ταινία επιστημονικής φαντασίας». Απαγορεύεται επίσης η χρήση για την ανάθεση «κοινωνικής βαθμολογίας» σε άτομα: «Τα κοινωνικά δίκτυα έχουν ήδη δείξει ότι είναι πολύ ικανά σε αυτό. Και περιπτώσεις χειραγώγησης όπως αυτή που αφορά την Cambridge Analytica το έχουν επισημάνει κατηγορηματικά». Φόβος για AI; «Η φυσική βλακεία με τρομάζει περισσότερο. Η τεχνητή νοημοσύνη, εάν χρησιμοποιηθεί σωστά και ρυθμιστεί, μπορεί να μας κάνει καλύτερους».


Αυτή είναι μια αυτόματη μετάφραση μιας ανάρτησης που δημοσιεύτηκε στο Start Magazine στη διεύθυνση URL https://www.startmag.it/innovazione/ai-act-cosa-ce-e-cosa-non-ce/ στις Sun, 10 Dec 2023 09:42:00 +0000.