Macro

Αντώνης Μπόγρης: Τεχνητή Νοημοσύνη στην Ευρώπη: Δημοκρατία και Δικαιώματα

Καθημερινά γινόμαστε αποδέκτες συζητήσεων που σχετίζονται με τη χρήση εργαλείων τεχνητής νοημοσύνης (ΤΝ), των οποίων οι επιδόσεις εντυπωσιάζουν ακόμα και όσους/όσες ασχολούνται επί πολλά έτη με τα αντικείμενα αυτά και σε επιστημονικό επίπεδο. Είναι αλήθεια ότι η έλευση του Chat GPT και άλλων μοντέλων τεχνητής νοημοσύνης που συγκαταλέγονται στην κατηγορία της παραγωγικής ΤΝ (generative AI) μας αφήνουν άφωνους με τις δυνατότητες που παρέχουν σε εφαρμογές παραγωγής λόγου, εικόνας, ήχου.
 
Δεν είναι τυχαίο ότι το ChatGPT έχει την ταχύτερα αναπτυσσόμενη βάση χρηστών στην ιστορία του Διαδικτύου. Η διείσδυση της ΤΝ σε πολλούς κλάδους της οικονομίας είναι ραγδαία και έχει ήδη συμβάλει στην αύξηση της παραγωγικότητας. Με βάση τις μελέτες της Precedence Research το μέγεθος της παγκόσμιας αγοράς ΤΝ αποτιμήθηκε σε 454 δισεκατομμύρια δολάρια το 2022 και αναμένεται να φτάσει περίπου τα 2.575 δισεκατομμύρια δολάρια έως το 2032. Η ΤΝ βρίσκει πληθώρα εφαρμογών στον τομέα της υγείας, στις χρηματο-οικονομικές αγορές, στα αυτόνομα οχήματα, στα έξυπνα εργοστάσια, στις έξυπνες πόλεις και υποδομές, στην εκπαίδευση, στη γεωργία ακριβείας, στην εν γένει διαχείριση και στατιστική επεξεργασία μεγάλων δεδομένων και αυτά είναι μόνο κάποια ενδεικτικά πεδία εφαρμογής. Λόγω της μεγάλης της επίδρασης, έχει προκαλέσει εκρηκτικές επενδύσεις κυρίως από τους τεχνολογικούς κολοσσούς (Microsoft, Google, Amazon, κ.α.) και τροφοδοτεί τις τεχνολογικές εξελίξεις στους ημιαγωγούς που διαμορφώνουν ένα νέο γεωπολιτικό τοπίο.
 
Οι ιλιγγιώδεις ρυθμοί ανάπτυξης του τομέα, σε συνδυασμό με τις κολοσσιαίες επενδύσεις, αποδεικνύουν ότι η ΤΝ ήρθε για να μείνει και θα διαμορφώσει το μέλλον μας σε επίπεδο οικονομικό, κοινωνικό, πολιτικό, πολιτισμικό. Αναμφίβολα, πέρα από τις προφανείς θετικές επιδράσεις της ΤΝ, διαμορφώνεται παγκοσμίως σκεπτικισμός για τις απειλές και τους κινδύνους που συνοδεύουν τη μετάβαση στη νέα εποχή. Οι φόβοι είναι δικαιολογημένοι, αν σκεφτεί κανείς ότι μοντέλα στατιστικής επεξεργασίας και προγνωστικοί αλγόριθμοι, που αποτελούν τους προγόνους των μεγάλων μοντέλων της ΤΝ, χρησιμοποιούνται εδώ και πολλά χρόνια στις ΗΠΑ για την αξιολόγηση εκπαιδευτικών, για την αξιολόγηση των πανεπιστημίων, σε συστήματα λήψης αποφάσεων στη δικαιοσύνη, στην ασφάλιση, στον τραπεζικό δανεισμό και στην επιλογή υποψηφίων για εύρεση εργασίας με καταστροφικές συνέπειες, όπως εύγλωττα περιγράφει η ειδικός στην επιστήμη των δεδομένων Cathy O’Neil στο βιβλίο της «Όπλα μαθημαζικής καταστροφής».
 
Επίσης μοντέλα ΤΝ ξεκίνησαν να χρησιμοποιούνται ευρέως στην Κίνα για την αναγνώριση προσώπου και τη μαζική παρακολούθηση πολιτών κατά την περίοδο του COVID-19, ενώ το Ισραήλ σήμερα αξιοποιεί νέα συστήματα ΤΝ στις επιχειρήσεις στη Γάζα για την «έξυπνη» αποκάλυψη στόχων. Η ΤΝ, με τους ρυθμούς ανάπτυξης που καταγράφει και τις υποκείμενες κολοσσιαίες τεχνολογικές υποδομές που την υποστηρίζουν, γίνεται καθημερινά όλο και πιο ισχυρή, άρα και πιο απειλητική για τις ζωές μας και μπορεί να οδηγήσει σε κατάργηση πολλών επαγγελμάτων λόγω μαζικής αυτοματοποίησης, σε μεροληψία και διακρίσεις, ενώ μπορεί να αξιοποιηθεί για την υλοποίηση αυτόνομων όπλων μαζικής καταστροφής, για τη μαζική παρακολούθηση των πολιτών και τη χειραγώγηση της παγκόσμιας κοινής γνώμης με την παραγωγή ιδιαιτέρως πειστικών ψευδών ειδήσεων (deepfake) και τη στοχευμένη προπαγάνδα.
 
Σε ένα τέτοιο ραγδαία μεταβαλλόμενο περιβάλλον με δυνατότητες αλλά και πολλούς κινδύνους υπάρχουν διαφορετικές προσεγγίσεις στα ζητήματα της νομικής ρύθμισης της ΤΝ. Στη διεθνή γεωπολιτική κούρσα επικράτησης στις τεχνολογίες ΤΝ, η Ευρώπη σίγουρα πρωταγωνιστεί στη θέσπιση ισχυρής νομοθεσίας για τις αναδυόμενες τεχνολογίες με τη νομική πράξη EU AI ACT, όπως έγινε και στην περίπτωση του Γενικού Κανονισμού για την Προστασία των Δεδομένων, γνωστού και ως General Data Protection Regulation (GDPR). Στόχος του νέου νόμου είναι να προωθήσει αξιόπιστη TN στην Ευρώπη και πέραν αυτής, διασφαλίζοντας ότι τα συστήματα TN σέβονται τα θεμελιώδη δικαιώματα, την ασφάλεια και τις ηθικές αρχές.
 
Ο νόμος της ΕΕ για την TN υιοθετεί μια προσέγγιση βασισμένη στον κίνδυνο, καθιερώνοντας τέσσερις κατηγορίες κινδύνου για TN: απαράδεκτος κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος κίνδυνος. Με βάση την αρχική πρόταση του Ευρωπαϊκού Κοινοβουλίου για την EU AI ACT, στην κατηγορία του απαράδεκτου κινδύνου ανήκουν εφαρμογές που απειλούν τα δικαιώματα των πολιτών, συμπεριλαμβανομένων βιομετρικών συστημάτων κατηγοριοποίησης. Η αναγνώριση συναισθημάτων στον χώρο εργασίας και στα σχολεία, η κοινωνική βαθμολογία, η προγνωστική αστυνόμευση και η ΤΝ που χειραγωγεί την ανθρώπινη συμπεριφορά θα απαγορεύονται επίσης. Στις εφαρμογές υψηλού ρίσκου συγκαταλέγονται συστήματα ΤΝ που εφαρμόζονται σε υποδομές ζωτικής σημασίας, εκπαίδευση και επαγγελματική κατάρτιση, απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τραπεζικές υπηρεσίες), μετανάστευση, διαχείριση συνόρων κ.α. Τέτοια συστήματα πρέπει να αξιολογούν και να μειώνουν τους κινδύνους, να διατηρούν αρχεία καταγραφής χρήσης, να είναι διαφανή και ακριβή και να διασφαλίζουν την ανθρώπινη εποπτεία.
 
Αν και η νομοθετική πράξη κρίνεται ως συνολικά θετική και θέτει πολύ αυστηρά πρόστιμα στους παραβάτες (έως και 35 εκ. ευρώ ή το 7% των ετήσιων εσόδων), θα πρέπει να επισημανθεί ότι η τελική έκδοση που ψηφίστηκε τον Μάρτιο του 2024 από το Ευρωπαϊκό Κοινοβούλιο είναι σαφώς λιγότερο φιλόδοξη σε σχέση με τις αρχικές επεξεργασίες. Για παράδειγμα, η αρχική καθαρή θέση του Ευρωπαϊκού Κοινοβουλίου για απαγόρευση της αναγνώρισης προσώπου σε πραγματικό χρόνο σε δημόσιους χώρους ουσιαστικά αλλοιώνεται από έναν μακρύ κατάλογο εξαιρέσεων.
 
Ο κανονισμός, ενώ στην αρχική του μορφή απαγόρευε την αναγνώριση συναισθημάτων και την κατέτασσε στο επίπεδο του απαράδεκτου κινδύνου, πλέον η αναγνώριση συναισθημάτων ορίζεται ως ένα σύστημα ΤΝ υψηλού κινδύνου και η χρήση του μπορεί να επιτραπεί κατ’ εξαίρεση για λόγους ασφαλείας. Συνεπώς, με πρόσχημα την ασφάλεια σε εποχές μεγάλης αβεβαιότητας, πολλά από τα αρχικώς θεωρούμενα απαράδεκτα συστήματα, τίθενται στις κατηγορίες υψηλού κινδύνου για τις οποίες έχει προβλεφθεί μία διαδικασία που σε μεγάλο βαθμό επαφίεται σε μηχανισμούς αξιολόγησης κινδύνου που αναπτύσσουν οι ίδιες οι εταιρίες που παρέχουν αυτές τις υπηρεσίες. Εδώ θα πρέπει να επισημανθεί ότι οι περισσότερες από τις διατάξεις του νέου νόμου θα τεθούν σε ισχύ δύο χρόνια μετά την έναρξη ισχύος του νόμου, δηλαδή το 2026, όταν κανείς δεν μπορεί να γνωρίζει την εξέλιξη των συστημάτων ΤΝ και το εύρος χρήσης τους και κατά πόσο η νομική πράξη EU AI ACT θα είναι παρωχημένη.
 
Αν και όπως είπαμε η Ευρώπη πρωτοπορεί στο να θέσει με οριζόντιο τρόπο όρια σε μία άκρως επικίνδυνη τεχνολογία που βρίσκεται κυρίως στα χέρια μεγάλων τεχνολογικών κολοσσών, η Αριστερά και οι προοδευτικές δυνάμεις δεν πρέπει να επαναπαυθούν. Δυστυχώς ο νέος κανονισμός δίνει χώρο στην ανάπτυξη πολλών εφαρμογών υψηλού ρίσκου για τα ανθρώπινα δικαιώματα, ωστόσο δίνει το δικαίωμα στους πολίτες να υποβάλλουν παράπονα για συστήματα ΤΝ και να ζητούν εξηγήσεις σχετικά με αποφάσεις που αυτά λαμβάνουν ενισχύοντας τη λογοδοσία. Συνεπώς η Αριστερά και οι πολιτικές δυνάμεις που είναι σταθερά προσηλωμένες στον σεβασμό των ανθρωπίνων δικαιωμάτων στην Ευρώπη οφείλουν να έρθουν σε επαφή με κοινωνικά κινήματα που αντιλαμβάνονται ότι η ΤΝ μπορεί να γίνει ένα πανίσχυρο όπλο στα χέρια της κάθε μορφής εξουσίας, να ενημερώσουν τους πολίτες για τον νέο κανονισμό και να οργανώσουν το δικό της παρατηρητήριο για την ΤΝ, με σκοπό να δημιουργηθεί ένας κοινωνικός ελεγκτικός μηχανισμός κυρίως για συστήματα ΤΝ υψηλού κινδύνου.
 
Ο Αντώνης Μπόγρης είναι καθηγητής Πανεπιστημίου Δυτικής Αττικής Υποψήφιος Ευρωβουλευτής με τη Νέα Αριστερά