Ολοένα και πιο πολλά, και πιο ανησυχητικά, είναι τα φαινόμενα παραπληροφόρησης στον κόσμο, καθώς σχεδόν ο μισός πληθυσμός παγκοσμίως ετοιμάζεται για εκλογές.
Σύμφωνα με τους αναλυτές, η τεχνητή νοημοσύνη υπερτροφοδοτεί την απειλή της εκλογικής παραπληροφόρησης παγκοσμίως, καθιστώντας εύκολο για οποιονδήποτε διαθέτει smartphone και φαντασία να δημιουργήσει ψεύτικο –αλλά πειστικό– περιεχόμενο που στοχεύει στην παραπλάνηση των ψηφοφόρων.
Σηματοδοτεί ένα κβαντικό άλμα σε σχέση με πριν από μερικά χρόνια, όταν για τη δημιουργία ψεύτικων φωτογραφιών, βίντεο ή ηχητικών αποσπασμάτων απαιτούνται ομάδες ανθρώπων με χρόνο, τεχνικές δεξιότητες και χρήματα.
Τώρα, χρησιμοποιώντας δωρεάν και χαμηλού κόστους υπηρεσίες παραγωγής τεχνητής νοημοσύνης από εταιρείες όπως η Google και το OpenAI, ο καθένας μπορεί να δημιουργήσει υψηλής ποιότητας «deepfakes» με ένα απλό μήνυμα κειμένου.
Οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη και τα deepfakes πιθανότατα θα είναι χειρότερα στις επόμενες εκλογές.
Ήδη έχουν αρχίσει κάποιες πρωτοβουλίες από μεγάλες εταιρείες, αλλά μια έκθεση του Νταβός διαπίστωσε ότι η παραπληροφόρηση που βασίζεται στην τεχνητή νοημοσύνη είναι η μεγαλύτερη βραχυπρόθεσμη απειλή στον κόσμο.
Κύμα deepfakes
Ένα κύμα deepfakes τεχνητής νοημοσύνης που συνδέεται με τις εκλογές στην Ευρώπη και την Ασία έχει περάσει στα μέσα κοινωνικής δικτύωσης εδώ και μήνες, χρησιμεύοντας ως προειδοποίηση για περισσότερες από 50 χώρες που κατευθύνονται στις κάλπες φέτος.
«Δεν χρειάζεται να ψάξετε μακριά για να δείτε μερικούς ανθρώπους… να είναι ξεκάθαρα μπερδεμένοι ως προς το αν κάτι είναι πραγματικό ή όχι», δήλωσε ο Henry Ajder, κορυφαίος ειδικός στην τεχνητή νοημοσύνη.
Το ερώτημα δεν είναι πλέον αν τα deepfakes της τεχνητής νοημοσύνης θα μπορούσαν να επηρεάσουν τις εκλογές, αλλά πόσο επιρροή θα έχουν, είπε ο Ajder, ο οποίος διευθύνει μια εταιρεία συμβούλων που ονομάζεται Latent Space Advisory.
Καθώς η κούρσα για τις προεδρικές εκλογές των ΗΠΑ μπαίνει στην τελική ευθεία, ο διευθυντής του FBI, Christopher Wray προειδοποίησε πρόσφατα για την αυξανόμενη απειλή, λέγοντας ότι η τεχνητή νοημοσύνη διευκολύνει τους «ξένους αντιπάλους να εμπλέκονται σε κακόβουλη επιρροή».
Με τα deepfakes AI, η εικόνα ενός υποψηφίου μπορεί να αλλοιωθεί.
Οι ψηφοφόροι μπορούν να κατευθύνονται προς ή μακριά από τους υποψηφίους – ή ακόμα και να αποφύγουν εντελώς τις κάλπες.
Όμως, ίσως η μεγαλύτερη απειλή για τη δημοκρατία, λένε οι ειδικοί, είναι ότι η αύξηση των πλαστών εικόνων τεχνητής νοημοσύνης θα μπορούσε να διαβρώσει την εμπιστοσύνη του κοινού σε αυτά που βλέπει και ακούει.
Μερικά πρόσφατα παραδείγματα deepfakes AI περιλαμβάνουν:
— Ένα βίντεο της φιλοδυτικής προέδρου της Μολδαβίας να υποστηρίζει ένα πολιτικό κόμμα φιλικό προς τη Ρωσία.
— Ηχητικά κλιπ του αρχηγού του φιλελεύθερου κόμματος της Σλοβακίας που συζητά για νοθεία των ψηφοφοριών και για αύξηση της τιμής της μπύρας.
— Ένα βίντεο ενός βουλευτή της αντιπολίτευσης στο Μπαγκλαντές —μια συντηρητική μουσουλμανική πλειοψηφία — φορώντας μπικίνι.
Η καινοτομία και η πολυπλοκότητα της τεχνολογίας καθιστούν δύσκολο τον εντοπισμό του ποιος βρίσκεται πίσω από τα deepfakes AI.
Οι ειδικοί λένε ότι οι κυβερνήσεις και οι εταιρείες δεν είναι ακόμη ικανές να σταματήσουν τον κατακλυσμό, ούτε κινούνται αρκετά γρήγορα για να λύσουν το πρόβλημα.
Καθώς η τεχνολογία βελτιώνεται, «θα είναι δύσκολο να βρεθούν οριστικές απαντήσεις για μεγάλο μέρος του πλαστού περιεχομένου», είπε ο Ajder.
Ο ρόλος της Κίνας
Η Κίνα έχει επίσης κατηγορηθεί ότι εξοπλίζει τη γενετική τεχνητή νοημοσύνη για πολιτικούς σκοπούς.
Στην Ταϊβάν, ένα αυτοδιοικούμενο νησί που η Κίνα ισχυρίζεται ότι είναι δικό της, ένα deepfake τεχνητής νοημοσύνης κέρδισε την προσοχή νωρίτερα αυτό το έτος, υποκινώντας τις ανησυχίες για την παρέμβαση των ΗΠΑ στην τοπική πολιτική.
Το ψεύτικο απόσπασμα που κυκλοφορεί στο TikTok έδειξε τον βουλευτή των ΗΠΑ Rob Wittman, αντιπρόεδρο της Επιτροπής Ενόπλων Υπηρεσιών της Βουλής των ΗΠΑ, να υπόσχεται ισχυρότερη στρατιωτική υποστήριξη των ΗΠΑ στην Ταϊβάν, εάν οι υποψήφιοι του κατεστημένου κόμματος εκλεγούν τον Ιανουάριο.
Ο Wittman κατηγόρησε το Κινεζικό Κομμουνιστικό Κόμμα για την απόπειρα ανάμιξης στην πολιτική της Ταϊβάν, λέγοντας ότι χρησιμοποιεί την TikTok – μια κινεζική εταιρεία – για να διαδώσει «προπαγάνδα».
Θολή πραγματικότητα
Η επαλήθευση των deepfakes μόνο με ήχο είναι ιδιαίτερα δύσκολη, επειδή, σε αντίθεση με τις φωτογραφίες και τα βίντεο, δεν έχουν ενδεικτικά σημάδια χειραγώγησης περιεχομένου.
Στη Σλοβακία, μια άλλη χώρα που επισκιάζεται από τη ρωσική επιρροή, ηχητικά κλιπ που μοιάζουν με τη φωνή του αρχηγού του φιλελεύθερου κόμματος κοινοποιήθηκαν ευρέως στα μέσα κοινωνικής δικτύωσης λίγες μέρες πριν από τις βουλευτικές εκλογές.
Τα κλιπ φέρεται να τον απαθανάτισαν να μιλά για αύξηση στις τιμές της μπύρας και νοθεύοντας την ψηφοφορία.
Είναι κατανοητό ότι οι ψηφοφόροι μπορεί να υποκύψουν στην εξαπάτηση, είπε ο Ajder, επειδή οι άνθρωποι είναι «πολύ συνηθισμένοι να κρίνουν με τα μάτια μας παρά με τα αυτιά μας».
Πρόκληση για τη Δημοκρατία
Ορισμένες πολιτικές εκστρατείες χρησιμοποιούν τεχνητή νοημοσύνη για να ενισχύσουν την εικόνα του υποψηφίου τους.
Στην Ινδονησία, η ομάδα που διεξήγαγε την προεδρική εκστρατεία του Prabowo Subianto ανέπτυξε μια απλή εφαρμογή για κινητά για να δημιουργήσει μια βαθύτερη σύνδεση με υποστηρικτές σε όλο το τεράστιο νησιωτικό έθνος.
Η εφαρμογή επέτρεψε στους ψηφοφόρους να ανεβάζουν φωτογραφίες και να δημιουργούν εικόνες του εαυτού τους με το Subianto που δημιουργούνται από AI.
Καθώς πολλαπλασιάζονται οι τύποι Deepfakes AI, οι αρχές σε όλο τον κόσμο προσπαθούν να βρουν δικλείδες ασφαλείας.
Η Ευρωπαϊκή Ένωση απαιτεί ήδη από τις πλατφόρμες μέσων κοινωνικής δικτύωσης να περιορίσουν τον κίνδυνο διάδοσης παραπληροφόρησης ή «εκλογικής χειραγώγησης».
Θα επιβάλλει την ειδική επισήμανση των deepfakes AI από το επόμενο έτος, αλλά είναι πολύ αργά για τις κοινοβουλευτικές εκλογές της ΕΕ τον Ιούνιο.
Οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο πρόσφατα – και εθελοντικά – υπέγραψαν μια συμφωνία για να αποτρέψουν τα εργαλεία τεχνητής νοημοσύνης από το να διαταράξουν τις εκλογές.
Για παράδειγμα, η εταιρεία που κατέχει το Instagram και το Facebook έχει πει ότι θα αρχίσει να επισημαίνει τα deepfakes που εμφανίζονται στις πλατφόρμες της.
Αλλά τα deepfakes είναι πιο δύσκολο να περιοριστούν σε εφαρμογές όπως η υπηρεσία συνομιλίας Telegram, η οποία δεν υπέγραψε το εθελοντικό σύμφωνο και χρησιμοποιεί κρυπτογραφημένες συνομιλίες που μπορεί να είναι δύσκολο να παρακολουθηθούν.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Παρακαλούμε τα σχολιά σας να ειναι σχετικά με το θέμα, περιεκτικά και ευπρεπή. Για την καλύτερη επικοινωνία δώστε κάποιο όνομα ή ψευδώνυμο. Διαφημιστικά σχόλια δεν δημοσιεύονται.
Επειδή δεν υπάρχει η δυνατότητα διόρθωσης του σχολίου σας παρακαλούμε μετά την τελική σύνταξή του να ελέγχεται. Προτιμάτε την ελληνική γραφή κι όχι την λατινική (κοινώς greeklish).
Πολύ σημαντικό είναι να κρατάτε προσωρινό αντίγραφο του σχολίου σας ειδικά όταν είναι εκτενές διότι ενδέχεται να μην γίνει δεκτό από την Google (λόγω μεγέθους) και θα παραστεί η ανάγκη να το σπάσετε σε δύο ή περισσότερα.
Το σχόλιό σας θα δημοσιευθεί, το αργότερο, μέσα σε λίγες ώρες, μετά από έγκριση του διαχειριστή του ιστολογίου, ο οποίος είναι υποχρεωμένος να δημοσιεύει όλα τα σχόλια που δεν παραβαίνουν τους όρους που έχουμε θέσει στις παρούσες οδηγίες.
Υβριστικά, μη ευπρεπή και προπαγανδιστικά σχόλια θα διαγράφονται ή δεν θα δημοσιεύονται.