Macro

Κώστας Ζαφειρόπουλος: Τεχνητή Νοημοσύνη: Δυστοπία ή επανάσταση;

Το 2019 αποκαλύπτεται ότι οι ολλανδικές φορολογικές αρχές είχαν χρησιμοποιήσει έναν αλγόριθμο αυτόματης μάθησης για να δημιουργήσουν κάποια προφίλ κινδύνου ώστε να εντοπίσουν περιπτώσεις απάτης σχετικά με επιδόματα παιδικής φροντίδας.
 
Οι αρχές επέβαλαν κυρώσεις πολλών χιλιάδων ευρώ σε οικογένειες λόγω μιας απλής υποψίας απάτης, η οποία βασιζόταν στα αποτελέσματα του αλγόριθμου που αποδείχθηκαν εντελώς λανθασμένα. Δεκάδες χιλιάδες οικογένειες, οι περισσότερες εκ των οποίων είχαν πολύ χαμηλά εισοδήματα ή ανήκαν σε εθνοτικές μειονότητες, εξαθλιώθηκαν εξαιτίας των υπερβολικών χρεών προς την Εφορία. Κάποια θύματα αυτοκτόνησαν. Πάνω από χίλια παιδιά απομακρύνθηκαν από τους γονείς τους και οδηγήθηκαν σε ανάδοχες οικογένειες. Ορισμένοι γονείς υποχρεώθηκαν να επιστρέψουν αναδρομικά τα χρήματα που είχαν λάβει σε διάστημα πολλών ετών – σε κάποιες περιπτώσεις ανέρχονταν σε δεκάδες χιλιάδες ευρώ.
 
Μετά την αποκάλυψη του σκανδάλου «toeslagen» (προσαυξήσεων) η ολλανδική κυβέρνηση του Ρούτε έπεσε, όμως χιλιάδες ζωές καταστράφηκαν από μια επαίσχυντη διαδικασία που περιελάμβανε έναν ξενοφοβικό αλγόριθμο.
 
Πρόκειται για μια από τις πιο εμβληματικές περιπτώσεις που σήμαναν ορισμένους από τους κινδύνους πίσω από την ολοένα και μεγαλύτερη διείσδυση συστημάτων Τεχνητής Νοημοσύνης και η οποία απασχόλησε ιδιαίτερα το Ευρωπαϊκό Κοινοβούλιο, που τον περασμένο Ιούνιο ενέκρινε την προτεινόμενη νέα νομοθεσία της Ε.Ε. για την Τεχνητή Νοημοσύνη. Η τελική της μορφή θα αργήσει να υλοποιηθεί καθώς τώρα ξεκινούν οι –πάντα δύσκολες– «διαπραγματεύσεις» με την Κομισιόν και το Συμβούλιο.
Ευκαιρίες και προκλήσεις για την κοινωνία
 
Τις αδιαμφισβήτητες ευκαιρίες που θα προσφέρει και στο κοινωνικό σύνολο στο προσεχές μέλλον η χρήση της Τεχνητής Νοημοσύνης (Τ.Ν.) σε τομείς όπως η υγεία, η εκπαίδευση, η δημόσια διοίκηση, αλλά και τις σοβαρές προκλήσεις που θέτει σε ζητήματα δημοκρατίας, ασφάλειας, ελευθεριών, εργασίας και προστασίας των προσωπικών δεδομένων ανέπτυξαν ειδικοί από διαφορετικά γνωστικά αντικείμενα στην ειδική εκδήλωση που οργάνωσε πριν από λίγες μέρες η ευρωομάδα της Αριστεράς στις Βρυξέλλες με πρωτοβουλία του ευρωβουλευτή Στέλιου Κούλογλου.
 
Η Δέσποινα Mητροπούλου, ερευνήτρια στο Διεθνές Πανεπιστήμιο της Ελλάδας, έκανε μια καταγραφή των βασικών τομέων όπου μπορεί να υπάρξει σημαντικό όφελος από τη χρήση της Τεχνητής Νοημοσύνης: βελτίωση και μεγαλύτερη ακρίβεια στις έγκαιρες διαγνώσεις ασθενειών, αναγνώριση πολύ πρώιμων σημαδιών μιας ασθένειας, εξατομικευμένα εργαλεία μάθησης στην εκπαίδευση ανάλογα με τις δεξιότητες του κάθε μαθητή (με ορατό όμως τον κίνδυνο μείωσης της κριτικής και συνδυαστικής σκέψης), αυτόματη οδήγηση αυτοκινήτων με μείωση δυστυχημάτων (σ.σ.: παραμένουν πάντως διεθνώς ανεπίλυτα μια σειρά από σοβαρά ηθικά ζητήματα σχετικά με το θέμα, όπως, π.χ., σε περίπτωση ενός επερχόμενου δυστυχήματος μέσω κάποιας σύγκρουσης, πώς προτεραιοποιείται από τον αλγόριθμο ποιος θα σωθεί: ο οδηγός, ο πεζός ή το επερχόμενο αυτοκίνητο κ.λπ.), έγκαιρη ακριβής πρόβλεψη φυσικών καταστροφών (π.χ. πυρκαγιές, πλημμύρες), γρήγορη επίλυση δικαστικών υποθέσεων, βελτίωση της αγροτικής παραγωγής (πρόβλεψη ασθενειών κ.ά.), μεγαλύτερη δικαιοσύνη στον τρόπο πρόσληψης εργαζομένων (διαφάνεια και ισότητα μεταξύ φύλων), προβλέψεις οικονομικών τάσεων, αναγνώριση ψευδών ειδήσεων και μηχανισμών παραπληροφόρησης με πολύ πιο έγκυρο και άμεσο τρόπο κ.ά.
 
Στον τομέα των αυτοματοποιημένων προσωπικών βοηθών, η Τεχνητή Νοημοσύνη μπορεί να ενισχύσει την παραγωγικότητά μας, να αυτοματοποιήσει λειτουργίες του σπιτιού ή και να μας προσφέρει επιλογές multimedia περιεχομένου, «ραμμένες» στις προτιμήσεις μας. Την ίδια στιγμή, μπορεί να μας κάνει ευάλωτους σε παρακολούθηση ή χειραγώγηση. Τόσο η ίδια όσο και το σύνολο των ομιλητών στην εκδήλωση επισήμαναν τους σοβαρούς κινδύνους που εγκυμονεί η αρρύθμιστη χρήση τέτοιων συστημάτων (όπως π.χ. η παραβίαση των προσωπικών δεδομένων υγείας).
 
Ο αρχιτέκτονας λογισμικού Δημήτρης Τοκάνης εξήγησε τη μέθοδο ανάπτυξης μιας εύχρηστης διαδικτυακής πλατφόρμας πρόβλεψης καρδιαγγειακού ρίσκου, βασισμένης σε μοντέλα Τεχνητής Νοημοσύνης: από τη συλλογή κλινικών δεδομένων, στην ανάπτυξη και την εκπαίδευση του αλγόριθμου, τη δημιουργία της πλατφόρμας και της αντίστοιχης εφαρμογής.
 
Ο Θόδωρος Καρούνος, ερευνητής του ΕΜΠ και αντιπρόεδρος του Οργανισμού Ανοιχτών Τεχνολογιών (ΕΕΛΛΑΚ), υποστήριξε πως η Τεχνητή Νοημοσύνη υπόσχεται πολλά για τη βελτίωση της αποδοτικότητας και της αποτελεσματικότητας του δημόσιου τομέα, παρουσιάζει επίσης σημαντικές προκλήσεις που σχετίζονται με την ηθική, το απόρρητο, τη διαφάνεια και τον αντίκτυπο στο εργατικό δυναμικό. Απαιτεί σημαντικούς πόρους, σύγχρονο νομικό πλαίσιο και φυσικά την εμπιστοσύνη του κοινού. Επισήμανε πως το πρώτο που θα κάνει η Τ.Ν. είναι να μειώσει δραστικά το κόστος πρόσβασης στη γνώση για τον γενικό πληθυσμό.
 
Ομως, παρότι άνθρωπος της τεχνολογίας ο ίδιος, υπογράμμισε ότι «δυστυχώς είμαι πάρα πολύ επιφυλακτικός για το θέμα της χρήσης της Τεχνητής Νοημοσύνης στην Ελλάδα, ειδικά στη δημόσια διοίκηση. Δεν υπάρχει διαφάνεια. Είδαμε τι έγινε με το σκάνδαλο των παρακολουθήσεων και την εμπλοκή ενός “γκρίζου” επιχειρηματία, του Λαβράνου. Δηλαδή ποιος θα αναλάβει στην Ελλάδα να διεκπεραιώσει αυτά τα συστήματα;», αναρωτήθηκε.
 
Οπως υπογράμμισε και ο Στέφανος Λουκόπουλος, ιδρυτής της ΜΚΟ Vouliwath, «η χώρα μας έχει αποδείξει πως σε ζητήματα διαφάνειας και λογοδοσίας υστερεί σημαντικά, οπότε μου μοιάζει ως ένα σενάριο δυστοπίας να μπουν αυτές οι τεχνολογίες στη δημόσια διοίκηση, ιδιαίτερα αν τις χρησιμοποιούν οργανισμοί όπως π.χ. η ΕΥΠ». Ο ίδιος, αναφερόμενος στο ζήτημα της υπερσυγκέντρωσης ισχύος στους τεχνολογικούς κολοσσούς αλλά και στο θέμα της διαφάνειας, τόνισε μεταξύ άλλων πως το μείζον ζήτημα είναι η απουσία ενός πλαισίου λειτουργίας. «Οχι μόνο εξαιτίας της υπερσυγκέντρωσης και εκμετάλλευσης των προσωπικών μας δεδομένων από τους τεχνολογικούς κολοσσούς με σκοπό το κέρδος, αλλά για το τι ακριβώς αυτό σημαίνει για τις δημοκρατικές μας αξίες, ειδικά σε μια περίοδο που είμαστε ολοένα και πιο ενεργοί πολιτικά στο διαδίκτυο και οι κυβερνήσεις επαφίενται όλο και περισσότερο σε αυτοματοποιημένα συστήματα διοίκησης», εξήγησε.
Αναποφάσιστοι
 
Μελέτη του Αμερικανικού Ινστιτούτου Ερευνας και Τεχνολογίας της Συμπεριφοράς δείχνει ότι από το 2015 πάνω από 25 εκλογικά αποτελέσματα σε όλο τον κόσμο έχουν καθοριστεί από τη μηχανή αναζήτησης της Google. Σύμφωνα με αυτή τη μελέτη, τα αποτελέσματα αναζήτησης Google από μόνα τους μπορούν να επηρεάσουν τις προτιμήσεις του 20% των αναποφάσιστων ψηφοφόρων, χωρίς οι ίδιοι να γνωρίζουν ότι έχουν επηρεαστεί – σε ορισμένες μάλιστα δημογραφικές ομάδες αυτό το ποσοστό φτάνει το 80%. «To ερώτημα δεν είναι αν θα είναι χρήσιμες οι εφαρμογές Τεχνητής Νοημοσύνης, αλλά ποιος ρυθμίζει αυτή την αγορά αποτελεσματικά. Γιατί αλλιώς ο κίνδυνος είναι να ζήσουμε αυτό που ζήσαμε με τα μέσα κοινωνικής δικτύωσης –παραμένει μια αρρύθμιστη αγορά– που έχουν συμβάλει ώστε να διατηρηθεί και να μεγαλώσει η πόλωση στην κοινωνία, να δημιουργηθούν φαινόμενα κακόβουλων χρήσεων τα οποία έχουμε δει τόσο στις ΗΠΑ όσο και στην Ευρώπη. Δεν θέλω να κινδυνολογήσω, αλλά, αν συμβεί το ίδιο με την Τεχνητή Νοημοσύνη, οι συνέπειες θα είναι επί 100», επισήμανε ο Θόδωρος Καρούνος.
 
Ο γενικός διευθυντής στο Ινστιτούτο ΕΝΑ, Παναγιώτης Σκευοφύλαξ, παρατηρεί πως ενώ παραμένει ανοιχτή η συζήτηση για το αν η Τεχνητή Νοημοσύνη εκδημοκρατίζει την πολιτική ή την πολιτική χειραγώγηση, είναι σίγουρο ότι επιτρέπει πλέον στους διαμορφωτές πολιτικού λόγου σε πολύ λιγότερο χρόνο και με λιγότερη σπατάλη πόρων να διαμορφώνουν μηνύματα και διαδικασίες αναπαραγωγής αυτών με πολύ πιο επικεντρωμένη στόχευση.
 
Ο Αντώνης Καλογερόπουλος (Πανεπιστήμιο VUB των Βρυξελλών και Reuters Institute) προσθέτει πως η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για να δώσει «σάρκα και οστά» σε fake news. Ο ίδιος επισήμανε τον κίνδυνο ότι τα μεγέθη στα οποία μπορεί με την Τεχνητή Νοημοσύνη να διασπείρονται fake news μπορεί να είναι μεγαλύτερα από ό,τι κανείς θα φανταζόταν. Ενδεικτικό του κινδύνου είναι το γεγονός πως το BBC υποστηρίζει πλέον πως οι ελεγκτές περιεχομένου αναγνωρίζουν με επιτυχία μόλις το 65% των βίντεο deep fake.
 
Το κεντρικό ερώτημα είναι αν θέλουμε ως κοινωνία η Τεχνητή Νοημοσύνη (και οι αλγόριθμοι τους οποίους «εκπαιδεύουμε») να παίρνει αποφάσεις για όλα τα σημαντικά πράγματα. Για το αποτέλεσμα μιας δίκης, για τις προσλήψεις σε μια εταιρεία, για την εγκληματική συμπεριφορά κάποιου και την αστυνόμευση, για τα τροχαία δυστυχήματα… Τα ηθικά διλήμματα που ανακύπτουν είναι πολλά: Τι δεδομένα χρησιμοποιεί και πού θα χρησιμοποιείται ο εκάστοτε αλγόριθμος; Ποιος θα τους αναπτύσσει (πανεπιστήμια ή επιχειρήσεις); Ποιος θα έχει πρόσβαση σε αυτούς; Πώς θα αποφεύγονται τα στερεότυπα και οι ξενοφοβικοί αλγόριθμοι, όπως αυτός της Ολλανδίας; Και αν σήμερα ακόμα αυτά τα συστήματα δεν μπορούν να διαθέτουν ανθρώπινα συναισθήµατα, τι θα γίνει όταν αποκτήσουν δική τους συνείδηση;
 
Το προσχέδιο της Ε.Ε., οι κίνδυνοι και οι υποχρεώσεις
 
Οι νέοι κανόνες θα χωρίζουν τα συστήματα Τεχνητής Νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα Τεχνητής Νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν τη συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής:
 
● Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο σε δημόσιους χώρους
 
● Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
 
● Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
 
● Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
 
● Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
 
● Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).
 
Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα Τεχνητής Νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.
 
Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές Τεχνητής Νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της Ε.Ε., πριν τις διαθέσουν στην ευρωπαϊκή αγορά.
 
Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής Τεχνητής Νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της Ε.Ε. (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για τη δημιουργία ενός προϊόντος Τεχνητής Νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων), ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο.
 
Τα ρομπότ δεν «κλέβουν» ακόμα πολλές θέσεις εργασίας
 
Μια έκθεση της Goldman Sachs τον Μάρτιο του 2023 εκτιμούσε ότι η Τεχνητή Νοημοσύνη θα μπορούσε να κάνει το ένα τέταρτο όλων των εργασιών που σήμερα κάνουν οι άνθρωποι. Σε ολόκληρη την Ευρωπαϊκή Ενωση και τις ΗΠΑ, σημειώνει περαιτέρω η έκθεση, 300 εκατομμύρια θέσεις εργασίας θα μπορούσαν να χαθούν από την αυτοματοποίηση. Περίπου οι μισοί Βρετανοί εργαζόμενοι πιστεύουν ότι η Τεχνητή Νοημοσύνη θα επηρεάσει με κάποιον τρόπο τις δουλειές τους μέσα στα επόμενα πέντε χρόνια, σύμφωνα με μελέτη της PwC.
 
«Η Τ.Ν. μπορεί να βοηθήσει τους ανθρώπους να έχουν νέες δεξιότητες, χωρίς να τους αντικαταστήσει. Στην πράξη όμως θα χαθούν πάρα πολλές ενδιάμεσες θέσεις εργασίας τόσο στον δημόσιο όσο και στον ιδιωτικό τομέα. Οχι βέβαια ό,τι είναι χειρωνακτικό», υποστηρίζει ο Θόδωρος Καρούνος (ΕΕΛΛΑΚ), αναφέροντας πως θα πρέπει για τα συνδικάτα αυτό να είναι ένα θέμα διεξοδικής μελέτης κατά προτεραιότητα.
 
Σε παρέμβασή του στην εκδήλωση της ευρωομάδας της Αριστεράς ο ευρωβουλευτής του ΣΥΡΙΖΑ-Π.Σ., Κώστας Αρβανίτης, επισήμανε πως για την Αριστερά το κρίσιμο ζήτημα σε νομοθετικό επίπεδο πανευρωπαϊκά ως προς τις αλλαγές που θα φέρει στο εργασιακό τοπίο η μεγαλύτερη διείσδυση της Τεχνητής Νοημοσύνης στον χώρο εργασίας είναι το ποιος καρπώνεται την υπεραξία που θα δημιουργείται από τη χρήση της, οι εργοδότες ή οι εργαζόμενοι. «Δίνεται μεγάλη ιδεολογική μάχη σε πανευρωπαϊκό επίπεδο στο ερώτημα “σε ποιον ανήκουν τα data που παράγονται;”, π.χ. σε μια εταιρεία, στους εργαζομένους ή στην εταιρεία; Η Δεξιά λέει ότι είναι της εταιρείας, εμείς λέμε ότι είναι των εργαζομένων και πως τα συνδικάτα πρέπει να παίξουν σημαντικό ρόλο σε αυτό».
 
Στη φετινή έκθεση του Παγκόσμιου Οικονομικού Φόρουμ για την εργασία, πάντως, παρουσιάστηκε έρευνα της HSBC η οποία δεν συμπεριλαμβάνει την Τεχνητή Νοημοσύνη στους κρίσιμους παράγοντες που θα σταθούν καθοριστικοί στο πώς θα διαμορφωθεί το τοπίο στην αγορά εργασίας στο άμεσο μέλλον. Στην τελευταία μελέτη του ΟΟΣΑ, η οποία βασίζεται στα αποτελέσματα έρευνας που έκανε το 2022 σε 2.000 εργοδότες και 5.300 εργαζομένους στον μεταποιητικό και χρηματοπιστωτικό κλάδο επτά χωρών, αναφέρεται πως προς το παρόν παραμένει περιορισμένος ο αντίκτυπος της Τ.Ν. στην αγορά εργασίας, το οποίο αποδίδεται στο γεγονός ότι η χρήση της βρίσκεται ακόμη σε αρχικό στάδιο, με τις μεγάλες επιχειρήσεις να πειραματίζονται για την εφαρμογή της.
 
Σύμφωνα με τον ΟΟΣΑ, οι θέσεις εργασίας με τον υψηλότερο κίνδυνο αυτοματοποίησης αποτελούν κατά μέσο όρο το 27% του εργατικού δυναμικού.
 
Το κρυφό οικολογικό αποτύπωμα της τεχνολογίας
 
Εκτός από τους ορυκτούς πόρους που εξαντλούνται και τις δασικές εκτάσεις που καταστρέφονται από την εξορυκτική διαδικασία η οποία απαιτείται για τα εργαλεία Τεχνητής Νοημοσύνης, τεράστια είναι και η κατανάλωση του νερού. Η εκπαίδευση των αλγόριθμων για εργαλεία Τεχνητής Νοημοσύνης απαιτεί ιδιαίτερα δυνατούς υπολογιστές, οι οποίοι βρίσκονται στα κέντρα δεδομένων. Πρόκειται για τεράστιες υποδομές που καταναλώνουν μεγάλες ποσότητες νερού και ενέργειας για την ψύξη των υπολογιστών.
 
Διαθέσιμα δημόσια δεδομένα και ακαδημαϊκά ερευνητικά δεδομένα συνδυάστηκαν για να υπολογιστεί η ανάπτυξη της χρήσης ψηφιακών δεδομένων στην Ευρώπη μέχρι το 2030, με σκοπό να υπολογιστεί το οικολογικό αποτύπωμα. Μόνο άυλη και περιβαλλοντικά ουδέτερη δεν είναι η χρήση αυτών των συστημάτων, τα οποία χρειάζονται χιλιάδες τεράστια data centers για να αποθηκεύουν και να διαχειρίζονται τις πληροφορίες.
 
Σύμφωνα με πρόσφατες μελέτες, μεταξύ 273,4 και 820,1 εκατ. κυβικών μέτρων νερού αλλά και από 56,3 έως 168 TW (τέραβατ) ηλεκτρικής ενέργειας θα καταναλωθούν στην Ευρώπη μόνο για τη χρήση του διαδικτύου. Το κέντρο δεδομένων της NSA στη Γιούτα εκτιμάται ότι θα χρησιμοποιεί ισχύ 65 MW και θα καταναλώνει 6,4 εκατομμύρια λίτρα νερού κάθε μέρα για την παροχή και τη λειτουργία των αναγκών του κέντρου ψύξης και αποθήκευσης. Ενα promt (μια φράση «ιδέα») για την παραγωγή μιας απλής εικόνας από εφαρμογή Τεχνητής Νοημοσύνης «κοστίζει» 1,5 λίτρο νερού.
 
Οπως μας λέει η Λορένα Παλασί (The Ethical Tech Society), «το νερό, η ηλεκτρική ενέργεια και τα διάφορα υλικά (κοβάλτιο, νικέλιο κ.ά.) που απαιτούνται για τη χρήση συστημάτων Τεχνητής Νοημοσύνης ανταγωνίζονται “επικίνδυνα” τις αντίστοιχες ανάγκες για γεωργία, μεταφορές, υγεία, πράσινη ενέργεια, αλλά και τις ιδιωτικές ανάγκες των ανθρώπων. Δεν έχουμε επαρκείς πόρους για να ικανοποιήσουμε όλες τις ανάγκες. Η έννοια της βιώσιμης Τεχνητής Νοημοσύνης δεν είναι βιώσιμη».
 
Στις ΗΠΑ η κατανάλωση νερού που απαιτείται για να λειτουργήσει το σύνολο των data centers που αποθηκεύουν δεδομένα υπολογίζεται σε 660 δισ. λίτρα τον χρόνο! Η αναζήτηση πληροφοριών μέσω μιας ερώτησης στο ChatGPT συνεπάγεται περίπου 4-5 φορές περισσότερες εκπομπές άνθρακα συγκριτικά με ένα συνηθισμένο «γκουγκλάρισμα». Πίσω από τη λαμπερή εικόνα κρύβονται και πολύ μαύρες ιστορίες που σχετίζονται με την Τεχνητή Νοημοσύνη. Στην προσπάθειά της να κάνει το ChatGPT λιγότερο «τοξικό», η OpenAI χρησιμοποίησε ως εξωτερικούς συνεργάτες εργαζομένους στην Κένυα, που κέρδιζαν λιγότερο από 2 δολάρια την ώρα, αποκάλυψε πρόσφατη έρευνα του Time.
 
Το 2019, ερευνητές από το Κολέγιο Αμερστ της Μασαχουσέτης πραγματοποίησαν μια αξιολόγηση της διαδικασίας εκπαίδευσης μεγάλων μοντέλων Τεχνητής Νοημοσύνης και βρήκαν ότι αυτή μπορεί να οδηγήσει στην εκπομπή περίπου 284.000 κιλών διοξειδίου του άνθρακα – ποσότητα πενταπλάσια των συνολικών εκπομπών ενός μέσου αυτοκινήτου στις ΗΠΑ από τη διαδικασία παραγωγής μέχρι και την απόσυρσή του. Επιπλέον, σύμφωνα με τον Διεθνή Οργανισμό Ενέργειας, τα κέντρα δεδομένων (data centers) κατανάλωσαν μέσα στο 2022 περί το 1,3% της παγκόσμιας παραγωγής ηλεκτρικής ενέργειας.
 
Στον αντίποδα, πρόσφατη έρευνα της PwC UK, που χρηματοδοτήθηκε από τη Microsoft και η οποία μοντελοποιεί τον οικονομικό αντίκτυπο της εφαρμογής της Τεχνητής Νοημοσύνης για τη διαχείριση του περιβάλλοντος, σε τέσσερις τομείς –γεωργία, νερό, ενέργεια και μεταφορές– αναφέρει ότι η εφαρμογή μοχλών Τεχνητής Νοημοσύνης θα μπορούσε να μειώσει τις παγκόσμιες εκπομπές αερίων θερμοκηπίου (GHG) κατά 4% το 2030, ποσό που ισοδυναμεί με τις ετήσιες εκπομπές του 2030 της Αυστραλίας, του Καναδά και της Ιαπωνίας μαζί.

Κώστας Ζαφειρόπουλος