Το αιφνίδιο άλμα στην εποχή της τεχνητής νοημοσύνης (ΤΝ) γεννά ελπίδες πρωτόγνωρης προόδου στις επιστήμες, την παραγωγικότητα και την καθημερινότητα. Ταυτόχρονα γεννά φόβους. Η αυτονόμηση και επιβολή της στον άνθρωπο είναι ο σημαντικότερος. Η υπέρμετρη –οικονομική και πολιτική– ισχύς των εταιρειών που θα κυριαρχήσουν στην κούρσα της ανάπτυξής της είναι επίσης κίνδυνος μη αμελητέος.
Οσοι (δικαίως) ανησυχούν επισημαίνουν πως δεν έχουμε πλέον απέναντί μας «εφαρμογές» αλλά υποκείμενα με (δυνητική) αυτονομία, πραγματικά «ψηφιακά όντα» (agents) που μπορούν να παράγουν καινούργια γνώση και –αν τους επιτραπεί– να αποφασίζουν και να ενεργούν. Οι δύο τελευταίες ικανότητες πρέπει να μας απασχολήσουν περισσότερο.
Τα «όντα» ΤΝ ενεργούν στο πλαίσιο οργανώσεων (επιχειρήσεις, δημόσιες υπηρεσίες) και εντός πεδίων δημόσιων πολιτικών (οικονομία, άμυνα…), άρα οι ενέργειές τους μπορούν να ταξινομηθούν και να ελεγχθούν με τα εργαλεία της διοικητικής επιστήμης. Το δε ευρύτερο πλαίσιο ΤΝ να κατανοηθεί με σύγχρονους όρους δημόσιας πολιτικής: χειρισμός πολύπλοκων ζητημάτων υπό επιστημονική αβεβαιότητα και με εμπλοκή αντιτιθέμενων συμφερόντων και αξιών, ήτοι αντιμετώπιση «δυσεπίλυτων» (wicked) προβλημάτων.
Στις κοινωνίες, στους θεσμούς, στις παραγωγικές οργανώσεις, οι λειτουργίες και οι ρόλοι των υποκειμένων καθορίζονται από τη νομοθεσία και με αποφάσεις νομοθετικά εξουσιοδοτημένων οργάνων. Κατ’ αναλογία η αντιμετώπιση των κινδύνων της ΤΝ θα πρέπει να είναι πρωτίστως κανονιστική και ακολούθως τεχνολογική.
Το κεντρικό ζήτημα για την ασφαλή ανάπτυξη της ΤΝ είναι το πώς καθορίζονται η αρμοδιότητα και η «εντολή» (mandate) του «ψηφιακού υποκειμένου» που αποτυπώνονται στη σχετική τεχνολογία. Οσο πιο ευρεία είναι η «εντολή» και λιγότεροι οι ενδιάμεσοι έλεγχοι τόσο αυξημένοι θα είναι οι κίνδυνοι αυτονόμησης.
Μεγαλύτεροι κίνδυνοι αναδύονται από τυχόν εξουσιοδότηση των «ψηφιακών υποκειμένων» να λαμβάνουν τελικές αποφάσεις εκτελεστού χαρακτήρα, δηλαδή αποφάσεις που θα οδηγούνται σε εφαρμογή χωρίς περαιτέρω έλεγχο από ανθρώπινα υποκείμενα.
Αλλο να παράγει νέα γνώση το ψηφιακό υποκείμενο και άλλο να λαμβάνει εκτελεστές αποφάσεις χωρίς ανθρώπινη έγκριση. Π.χ., σε ένα ακραίο σενάριο, η χρήση πυρηνικών να γίνεται αυτόματα όταν ένα ΤΝ σύστημα λήψης αποφάσεων (decision making) –και όχι υποστήριξης αποφάσεων (decision support)– κρίνει ότι υπάρχει άμεσος κίνδυνος.
Το ζήτημα είναι αν η τεράστια νοημοσύνη που αναπτύσσεται θα παραμείνει στο επίπεδο της εισήγησης ή θα περάσει στο επίπεδο της αυτοματοποιημένης απόφασης. Η απάντηση είναι προφανής από την οπτική της διαχείρισης κινδύνου: Είναι αδιανόητο έλλογα ανθρώπινα όντα να εμπιστευθούν συστήματα TN να κηρύσσουν και να πραγματοποιούν πολέμους π.χ. με αυτόματη εκτόξευση πυραύλων ή να κάνουν τελικές διαγνώσεις σε ασθενείς. Οι τελικές αποφάσεις πρέπει να λαμβάνονται, ατομικά ή συλλογικά, από αρμόδια φυσικά πρόσωπα, ελέγχοντας τα δεδομένα και τις προτάσεις «ψηφιακών βοηθών ΤΝ».
Δεν τίθεται εδώ ζήτημα υψηλότερης ή χαμηλότερης νοημοσύνης. Το θέμα αφορά τις διακριτές λειτουργίες τεκμηρίωσης, απόφασης και εκτέλεσης. Στην ΤΝ θα πρέπει να δοθεί θεσμικά και τεχνολογικά η δυνατότητα να παράγει τεκμηρίωση και να μπορεί να λαμβάνει απλές γνωμοδοτικές αποφάσεις όχι όμως αποφάσεις εκτελεστές. Υπό αυστηρές προϋποθέσεις θα μπορεί ίσως να λαμβάνει και «σύμφωνες» γνωμοδοτικές αποφάσεις, όταν π.χ. η τεκμηρίωση λειτουργεί σαν ανάχωμα στην πολιτική αυθαιρεσία.
Ελλοχεύει βέβαια πάντοτε ο κίνδυνος τα δεδομένα που χρησιμοποιούνται για την τεκμηρίωση της πρότασης να είναι μη αξιόπιστα ή μεροληπτικά και να οδηγούν σε αποφάσεις λανθασμένες, αξιακά προκατειλημμένες ή δεσμευμένες από επιμέρους συμφέροντα. Η διαφάνεια, η αποκεντρωμένη διαχείριση των δεδομένων και οι πολλαπλοί έλεγχοι από ανεξάρτητους ελεγκτικούς φορείς αλλά και από εκπροσώπους των διαφορετικών συμφερόντων που εμπλέκονται στο διακύβευμα (π.χ. οι Ενώσεις Καταναλωτών απέναντι σε ένα νομοθέτημα του υπουργείου Εμπορίου) μπορούν να συμβάλουν στον περιορισμό των κινδύνων. Αναγκαία λοιπόν η ρύθμιση από τους αρμόδιους εθνικούς και υπερεθνικούς θεσμούς και η εφαρμογή της από τη δημόσια εξουσία.
Ο δεύτερος κίνδυνος αφορά την εξουσία που μπορεί να συγκεντρώσουν οι εταιρείες που θα ελέγξουν την εξέλιξη της ΤΝ. Κάποιοι αναλυτές αισιοδοξούν επικαλούμενοι την αποκεντρωμένη ανάπτυξή της από πολλούς φορείς, σε πολλές χώρες, συμπεριλαμβανομένης και της ανοιχτής τεχνολογίας. Ωστόσο ανταγωνιστικά περιβάλλοντα έχουν υπάρξει και στο παρελθόν στα αρχικά στάδια των κύκλων ωρίμανσης τεχνολογικών επαναστάσεων οδηγώντας αργότερα σε ολιγοπώλια.
Το διακύβευμα εδώ είναι η ταχύτητα. Γρήγορες και ανεξέλεγκτες εξελίξεις ευνοούν την ισχύ των tech-giants. Πιο αργές, θεσμικά ελεγχόμενες διαδικασίες την περιορίζουν. Εδώ αναδεικνύεται ο κίνδυνος του ρυθμιστικού κενού λόγω καθυστερημένης παρέμβασης της δημόσιας εξουσίας.
Αν οι παγκόσμιες στρατηγικές αποφάσεις αφεθούν στο big tech οικοσύστημα των ΗΠΑ, οι κίνδυνοι μεγιστοποιούνται. Η Κίνα (παραδόξως) μοιάζει να αντιλαμβάνεται τους κινδύνους της αυτονόμησης της ΤΝ και λαμβάνει κάποιες θεσμικές πρόνοιες. Ωστόσο, η φύση του καθεστώτος δεν επιτρέπει μεγάλη αισιοδοξία. Η Ευρώπη είναι η μόνη που έχει τις πολιτισμικές, θεσμικές και (δυνάμει) τεχνολογικές προϋποθέσεις να προτάξει ένα διαφορετικό παράδειγμα. Εχει όμως η ηγεσία της το σθένος να το πράξει; Οπως είδαμε στις διαπραγματεύσεις για τους δασμούς, αυτό δεν είναι καθόλου βέβαιο.