Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον, ενώ θα πρέπει να εποπτεύονται από ανθρώπους και όχι από αυτοματισμούς, ώστε να αποφεύγονται επιβλαβή αποτελέσματα. Το Κοινοβούλιο θέλει επίσης να θεσπίσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την ΤΝ, ο οποίος θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα ΤΝ.
Διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου
Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογούνται.
1. Μη αποδεκτός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης με μη αποδεκτό κίνδυνο είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευτούν. Περιλαμβάνουν:
- Γνωστική συμπεριφορική χειραγώγηση ανθρώπων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με τη φωνή και ενθαρρύνουν την επικίνδυνη συμπεριφορά των παιδιών.
- Κοινωνική βαθμολόγηση: ταξινόμηση ανθρώπων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση ή τα προσωπικά χαρακτηριστικά
- Συστήματα βιομετρικής ταυτοποίησης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου
Ωστόσο, μπορεί να επιτραπούν ορισμένες εξαιρέσεις. Για παράδειγμα, τα συστήματα απομακρυσμένης βιομετρικής ταυτοποίησης, όπου η ταυτοποίηση πραγματοποιείται με σημαντική καθυστέρηση, θα επιτραπούν για τη δίωξη σοβαρών εγκλημάτων, αλλά μόνο μετά από έγκριση δικαστικών αρχών.
2.Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες:
1) Συστήματα ΤΝ που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει τα παιχνίδια, την αεροπορία, τα αυτοκίνητα, τις ιατρικές συσκευές και τους ανελκυστήρες.
2) Συστήματα ΤΝ που εμπίπτουν σε οκτώ συγκεκριμένους τομείς, τα οποία θα πρέπει να καταχωρούνται σε μια βάση δεδομένων της ΕΕ:
- Βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων
- Διαχείριση και λειτουργία κρίσιμων υποδομών
- Εκπαίδευση και επαγγελματική κατάρτιση
- Απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
- Πρόσβαση σε βασικές ιδιωτικές και δημόσιες υπηρεσίες και προνόμια
- Επιβολή του νόμου
- Διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων
- Βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.
Όλα τα συστήματα ΤΝ υψηλού κινδύνου θα αξιολογούνται πριν από τη διάθεσή τους στην αγορά, καθώς και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
3.«Παραγωγική» Τεχνητή Νοημοσύνη
Η «παραγωγική» τεχνητή νοημοσύνη, όπως το ChatGPT, θα πρέπει να συμμορφώνεται με τις ακόλουθες απαιτήσεις διαφάνειας:
- Γνωστοποίηση ότι το περιεχόμενο δημιουργήθηκε από ΤΝ
- Σχεδιασμός του μοντέλου ώστε να αποτρέπεται η παραγωγή παράνομου περιεχομένου
- Δημοσίευση περιλήψεων των δεδομένων με πνευματικά δικαιώματα που χρησιμοποιήθηκαν για την εκπαίδευση
4. Περιορισμένος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να τις χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την ΤΝ και αυτό περιλαμβάνει συστήματα ΤΝ που παράγουν ή επεξεργάζονται περιεχόμενο εικόνας, ήχου ή βίντεο, για παράδειγμα deepfakes.
Επόμενα βήματα
Στις 14 Ιουνίου 2023, οι ευρωβουλευτές ενέκριναν τη διαπραγματευτική θέση του Κοινοβουλίου σχετικά με την Πράξη για την ΤΝ και αναμένεται η εκκίνηση συνομιλιών με τα κράτη μέλη της ΕΕ στο Συμβούλιο σχετικά με την τελική μορφή του νόμου και με στόχο να επιτευχθεί συμφωνία μέχρι το τέλος του τρέχοντος έτους.
H εικόνα που συνοδεύει το άρθρο είναι από την ιστοσελίδα του Ευρωπαϊκού Κοινοβουλίου, αφορά την ΤΝ και δημιουργήθηκε από εφαρμογή ΤΝ.