Ψεύτικες ρομποτικές κλήσεις, πλαστές φωτογραφίες ή βίντεο. Η μοντέρνα τεχνολογία εξελίσσεται με ιλιγγιώδεις ρυθμούς την ώρα που δισεκατομμύρια άνθρωποι σε όλο τον κόσμο προσέρχονται στις κάλπες. Το 2024 είναι χρονιά εκλογών για πάνω από 50 χώρες σε όλο τον κόσμο. Το γεγονός ότι η Τεχνητή Νοημοσύνη μπορεί να δημιουργήσει τόσο αξιόπιστες ψεύτικες εικόνες και να επηρεάσει τη διαδικασία των εκλογών ανησυχεί επιστήμονες, πολιτικούς και παρατηρητές. Μπορούν οι επιπτώσεις της τεχνολογικής προόδου να είναι σοβαρές για τη δημοκρατία και την εμπιστοσύνη του κοινού στις εκλογικές διαδικασίες;
Τα μέσα κοινωνικής δικτύωσης στη Βρετανία πήραν φωτιά τον περασμένο Οκτώβριο από κακόβουλα deepfake ηχητικά αποσπάσματα του ηγέτη του βρετανικού Εργατικού Κόμματος Keir Starmer. Αν και διαψεύστηκε από ειδικούς ελεγκτές, το παραπλανητικό αυτό περιεχόμενο εξακολούθησε να συγκεντρώνει προβολές στο X και να πλησιάζει σχεδόν 1,5 εκατομμύριο επισκέψεις ακόμη και δύο μέρες μετά, αναφέρει το POLITICO.
Τον περασμένο Σεπτέμβριο, λίγες ημέρες πριν από τις κρίσιμες εκλογές στη Σλοβακία, διαδόθηκε στο διαδίκτυο μια ηχητική καταγραφή όπου ένας από τους κορυφαίους υποψηφίους, o πρώην ευρωβουλευτής Michal Šimečka συζητούσε για το πώς θα νόθευε τις εκλογές εξαγοράζοντας ψήφους. Οι ηχογραφήσεις έγιναν αμέσως viral στα μέσα κοινωνικής δικτύωσης και παρόλο που αποδείχθηκαν ως deepfakes, ήταν και η εκλογική καταδίκη του φιλοδυτικού Šimečka, ο οποίος ηττήθηκε από τον αντίπαλό του που είχε στενότερους δεσμούς με τη Μόσχα.
Ομοίως, ψευδείς ρομποτικές κλήσεις, που υποτίθεται ότι προέρχονταν από τον πρόεδρο των ΗΠΑ Τζο Μπάιντεν και δημιουργήθηκαν επίσης με τη χρήση εργαλείων τεχνητής νοημοσύνης, κατέκλυσαν τις πρόσφατες προκριματικές εκλογές των Δημοκρατικών στο New Hampshire για να παροτρύνουν τους πολίτες να μην ψηφίσουν. Και αυτές, επίσης, αποκαλύφθηκαν γρήγορα ως ψεύτικες.
Η εύκολη πρόσβαση σε εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT και άλλα, δίνει τη δυνατότητα σε οποιονδήποτε με κάποιο πολιτικό κίνητρο να δημιουργήσει ψευδή μηνύματα και να κατακλύσει τα μέσα κοινωνικής δικτύωσης με ταχύτητα και τρόπους που πριν από μερικά χρόνια φαίνονταν αδιανόητοι επισημαίνει το POLITICO. Σε μια εποχή παγιωμένης κομματικής πολιτικής και αυξανόμενου σκεπτικισμού σχετικά με όσα δημοσιεύονται στο διαδίκτυο, η τεχνητή νοημοσύνη έχει τη δυνατότητα να δυσκολέψει αρκετά τις προβλέψεις για τις φετινές εκλογές σε όλο τον κόσμο.
Ποιος θα είναι όμως ο πραγματικός αντίκτυπος της προόδου της Τεχνητής Νοημοσύνης όταν μέσα στο 2024 περισσότεροι από 2 δισεκατομμύρια άνθρωποι προσέλθουν στις κάλπες από το Νέο Δελχί έως το Βερολίνο και την Ουάσινγκτον;
Παρά την πρόοδο και τη μαγεία των τελευταίων εργαλείων τεχνητής νοημοσύνης, σχεδόν όλα τα deepfakes εξακολουθούν να διαψεύδονται εύκολα – και γρήγορα. Ακόμη και εκείνα που παράγονται από τη Ρωσία και την Κίνα, όπου η τεχνολογία αυτή ήδη χρησιμοποιείται σε παγκόσμιες καμπάνιες άσκησης επιρροής απαντά το δημοσίευμα του POLITICO. Το κοινό δύσκολα μετακινείται από τις πολιτικές του θέσεις και οι ειδικοί προειδοποιούν ότι το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη δεν μπορεί αλλάξει τις κομματικές πεποιθήσεις των περισσότερων ψηφοφόρων – ανεξάρτητα από το πόσο δελεαστικές φαίνονται οι φτιαχτές φωτογραφίες, τα βίντεο ή τα ηχητικά κλιπ.
Σύμφωνα με το POLITICO μέχρι στιγμής στις περισσότερες φετινές εκλογικές αναμετρήσεις σε χώρες όπως το Πακιστάν και η Ινδονησία, όπου η δημιουργική τεχνητή νοημοσύνη έχει αναπτυχθεί σε μεγάλο βαθμό, υπάρχουν ελάχιστες ενδείξεις ότι η τεχνολογία μπορεί αθέμιτα να μεταβάλει τα αποτελέσματα. Με την πληθώρα των αναρτήσεων στα μέσα κοινωνικής δικτύωσης σε όλο τον κόσμο δεν είναι εύκολο να διαπεράσουν ψεύτικα μηνύματα τεχνητής νοημοσύνης.
Πραγματική απειλή, όμως χωρίς αποδείξεις
Η χρήση της τεχνητής νοημοσύνης στην διαδικασία των εκλογών αναδεικνύει νέες προκλήσεις με την παραπληροφόρηση να αποτελεί ένα από τα σημαντικότερα ζητήματα που απασχολούν πολιτικούς και ειδικούς στον τομέα της τεχνολογίας.
Η δήλωση του Nick Clegg, πρόεδρου των παγκόσμιων υποθέσεων της Meta, αναδεικνύει τον ασαφή χαρακτήρα του προβλήματος. Ενώ οι τάσεις μπορεί να μεταβληθούν, δεν έχουν επηρεάσει ιδιαίτερα τις εκλογές του 2024 σε παγκόσμιο επίπεδο και δεν φαίνεται να υπάρχει “κάτι εξαιρετικά παράνομο”. Ωστόσο είναι σημαντικό να αναγνωριστεί η ανάγκη για προληπτικά μέτρα που θα περιορίσουν τη δυνατότητα διάδοσης της παραπληροφόρησης και της ψευδοειδοποίησης μέσω της τεχνητής νοημοσύνης.
Λίγες μόνο εβδομάδες πριν από τις βουλευτικές εκλογές της Βόρειας Ιρλανδίας το 2022, η 24χρονη Cara Hunter έλαβε ένα μήνυμα στο WhatsApp από άγνωστο άνδρα που ρωτούσε αν εκείνη ήταν η γυναίκα σε ένα πορνό βίντεο deepfake κλιπ 40 δευτερολέπτων. Μέσα σε λίγες ημέρες, το βίντεο είχε γίνει viral και η πολιτικός βομβαρδίστηκε με βίαια σεξουαλικά μηνύματα στα μέσα.
Ήταν μια προσπάθεια να με υπονομεύσουν πολιτικά”, δήλωσε η Hunter, η οποία κατάφερε τελικά να μπει στη Βουλή της Βόρειας Ιρλανδίας με λίγες ψήφους διαφορά. “Δεν μπορώ να ελέγξω τις επιπτώσεις αυτού του και θα το πληρώνω για πολύ ακόμα”.
Στη Μολδαβία, η πρόεδρος Maia Sandu έχει επανειλημμένα στοχοποιηθεί με deepfakes που δημιουργήθηκαν από τεχνητή νοημοσύνη για να γελοιοποιηθεί τόσο η ίδια προσωπικά όσο και η φιλοδυτική κυβέρνησή της. Οι αρχές εθνικής ασφάλειας της χώρας κατηγόρησαν το Κρεμλίνο για τις επιθέσεις.
Ομάδες που συνδέονται με τη Ρωσία δημιούργησαν άλλο ένα πλαστό βίντεο – αυτή τη φορά, με τον Τομ Κρουζ να επικρίνει τους Ολυμπιακούς Αγώνες στο Παρίσι σε παραποιημένο ντοκιμαντέρ του Netflix. Όταν η Διεθνής Ολυμπιακή Επιτροπή απαγόρευσε τη συμμετοχή ρώσων αθλητών, η Μόσχα στόχευσε το παγκόσμιο αυτό αθλητικό γεγονός με “εξελιγμένες καμπάνιες”. Αποτέλεσμα ήταν να γίνουν τελικά δεκτοί ως ουδέτεροι αθλητές αναφέρει το POLITICO.
Οι πρόσφατες εξελίξεις σχετικά με τη χρήση της τεχνητής νοημοσύνης στον πολιτικό χώρο έχουν προκαλέσει ανησυχίες και αναγκάζουν τους ενδιαφερόμενους φορείς να αντιμετωπίσουν το θέμα με σοβαρότητα. Στην Πολωνία και τις ΗΠΑ, πολιτικές ομάδες χρησιμοποίησαν διαστρεβλωτικές τεχνικές, όπως τα deepfakes, προκειμένου να επηρεάσουν τις εκλογές και τη δημόσια γνώμη.
Οι περισσότερες κυβερνήσεις δεν διαθέτουν τεχνική εμπειρογνωμοσύνη για την αντιμετώπιση της διαρκώς μεταβαλλόμενης απειλής της τεχνητής νοημοσύνης που σχετίζεται με τις εκλογές. Σε απάντηση πολλές κορυφαίες εταιρείες τεχνολογίας όπως το TikTok, η Meta και το OpenAI -δεσμεύτηκαν στο πρόσφατο Συνέδριο Ασφαλείας του Μονάχου για την ανάληψη δράσεων κατά της κακόβουλης χρήσης της Τεχνητής Νοημοσύνης όπως η επισήμανση των deepfakes ώστε το κοινό να γνωρίζει ότι βλέπει παραποιημένο περιεχόμενο και η παρεμπόδιση δημιουργίας και διασποράς βλαπιτκών ψευδών διαφημίσεων. Η Ευρωπαϊκή Επιτροπή ξεκίνησε έρευνα σχετικά με τα πιο προηγμένα εργαλεία αυτής της τεχνολογίας στα μέσα κοινωνικής δικτύωσης. Το Κογκρέσο επίσης, πραγματοποίησε ακροάσεις σχετικά με τις βλαπτικές επιπτώσεις της Τεχνητής Νοημοσύνης, συμπεριλαμβανομένων εκείνων που σχετίζονται με τις εκλογές
Η παραπληροφόρηση που παράγεται από την τεχνητή νοημοσύνη δεν έχει ακόμη αποδειχθεί ότι επηρεάζει τις συνήθειες των ψηφοφόρων κατά τις εκλογές, σύμφωνα με τον Josh Lawson, ο οποίος είναι υπεύθυνος για την Πρωτοβουλία “Εκλογές και Τεχνητή Νοημοσύνη στο Ινστιτούτο Aspen.
Το παραπλανητικό και το κοινότοπο
Αυτό οφείλεται στο γεγονός ότι συχνά το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη δεν είναι πολύ πειστικό επισημαίνει το Politico. Για παράδειγμα σε ένα deepfake, που προωθήθηκε στα μέσα κοινωνικής δικτύωσης από ρωσικές πηγές και αναφερόταν στις διαφορές ανάμεσα στον πρόεδρο Ζελένσκι και έναν από τους στρατηγούς του, υπήρχαν βασικά γλωσσικά λάθη, ενώ ο ήχος συγχρονιζόταν άσχημα με το βίντεο. Στιγμιότυπα με τον Τραμπ να περιβάλλεται από μαύρους υποστηρικτές διαψεύστηκαν μέσα σε λίγες ώρες στα μέσα κοινωνικής δικτύωσης.
«Αυτού του είδους η παραπληροφόρηση δεν μπορεί να έχει επιτυχία», δήλωσε ο Felix Simon, ερευνητής στο Πανεπιστήμιο της Οξφόρδης. Η επιφυλακτικότητα του κοινού απέναντι σε αυτά που βλέπουν στο διαδίκτυο, σε συνδυασμό με το γεγονός ότι τα περισσότερα περιεχόμενα που παράγονται από τεχνητή νοημοσύνη συγκεντρώνουν ελάχιστη προσοχή στα μέσα κοινωνικής δικτύωσης, περιορίζει τον αντίκτυπο αυτού του περιεχομένου, πρόσθεσε.
Για την Amber Sinha, ειδική σε θέματα τεχνητής νοημοσύνης στο Ίδρυμα Mozilla, προβλήματα στιε εκλογές δεν προκύπτουν τόσο από την τεχνολογία δημιουργίας των deepfake αλλά από κάτι πιο κοινότοπο. Τα εργαλεία άντλησης προσωπικών δεδομένων των ψηφοφόρων που διευκολύνουν τη στοχοποίηση του κοινού στις διαδικτυακές πολιτικές διαφημίσεις.
Τέτοιες τακτικές, σύμφωνα με την Sinha, επιτρέπουν την επεξεργασία τεράστιων όγκων ευαίσθητων προσωπικών πληροφοριών, όπως η κοινωνικοοικονομική κατάσταση με στόχο τον εντοπισμό των μηνυμάτων που θα μπορούσαν να επηρεάσουν περισσότερο τους ψηφοφόρους.
Άννα Βίγκα