Σελίδες

8 Μαρτίου 2024

Deepfake: Όταν η τεχνητή νοημοσύνη κάνει το ψέμα αλήθεια

Γράφει η ΛΥΓΕΡΟΥ ΝΕΦΕΛΗ
 
 
Λίγο πριν τις προκριμματικές εκλογές του Νιου Χαμσάιρ, χιλιάδες ψηφοφόροι δέχτηκαν ένα παράξενο τηλεφωνικό μήνυμα: «Η ψήφος σας θα κάνει τη διαφορά τον Νοέμβριο, όχι αυτή την Τρίτη» έλεγε και η φωνή έμοιαζε με αυτή του Αμερικανού προέδρου. Όμως, σύμφωνα με ανάλυση της εταιρείας ασφάλειας Pindrop, ήταν ένα μήνυμα-κατασκεύασμα της τεχνητής νοημοσύνης. Την ίδια στιγμή, η τεχνολογία ΑΙ επιτρέπει την δημιουργία ψευδών εικόνων, ήχου, βίντεο, ψηφιακές δημιουργίες που φαίνονται να εμφανίζουν αυθεντικούς ανθρώπους, τα λεγόμενα deepfake βίντεο.  
 
Ποιος δεν έχει δει σε deepfake βίντεο τον Στέφανο Κασσελάκη να χορεύει σε rave party ή τον Κυριάκο Μητσοτάκη να συμμετέχει στο reality bachelor, για να αναφέρουμε ορισμένα από τα πιο χαρακτηριστικά βίντεο viral ιστοσελίδας, που έχουν κατακλύσει το τελευταίο διάστημα τα social media; Βεβαίως, πάντα με την επισήμανση ότι πρόκειται για προϊόν τεχνολογίας deepfake και τεχνητής νοημοσύνης.
 
Την στιγμή που το 2024 είναι έτος με πάρα πολλές εκλογικές αναμετρήσεις, υπάρχει διάχυτη ανησυχία μήπως η τεχνολογία deepfake χρησιμοποιηθεί για κακόβουλους σκοπούς, με στόχο των αθέμιτο επηρεασμό των ψηφοφόρων, αλλάζοντας στην πραγματικότητα ό,τι ξέραμε για τα fake news και όλη την βιομηχανία παραπληροφόρησης που γνωρίζαμε. Προφανώς και δεν κατευνάζονται οι ανησυχίες ότι η νομοθεσία υποχρεώνει πάντα την επισήμανση πως ό,τι βλέπουμε είναι προϊόν τεχνητής νοημοσύνης, στην προβολή σχετικών deepfake βίντεο (μια σύνθετη λέξη που προέρχεται από τα deep learning και fake). Αυτό σημαίνει τροποποιημένα βίντεο, στα οποία ένα άτομο, σε υπάρχουσα φωτογραφία ή βίντεο, αντικαθίσταται από ένα άλλο.
 
Ψηφιακός “πονοκέφαλος” τα deepfakes 
 
Τα deepfakes δημιουργήθηκαν το 2014 από τον Ίαν Γκουντφέλοου, πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας Project της Apple. Το 2017, ένας χρήστης της πορνογραφικής ιστοσελίδας Reddit, με το ψευδώνυμο deepfake, ανάρτησε ένα πορνογραφικό βίντεο με “πρωταγωνίστρια” την Ισραηλινή ηθοποιό Γκαλ Γκαντότ. Αν και πολλά από αυτά είναι κακοφτιαγμένα, εντούτοις υπάρχουν περιπτώσεις που είναι άκρως αληθοφανή, επιβεβαιώνοντας το πόσο έχει εξελιχθεί η συγκεκριμένη τεχνολογία, εγείροντας ερωτήματα και ανησυχίες.
 
Εξάλλου και μόνο ο όρος deepfake που περιλαμβάνει τη λέξη “ψεύτικο” κουβαλάει μία αρνητική χροιά. Άτομα που ειδικεύονται στην ασφάλεια του Διαδικτύου έχουν προ πολλού σημειώσει ότι τα συγκεκριμένα βίντεο αποδεικνύουν ότι έχουμε φτάσει στο σημείο όπου δεν μπορεί να διακρίνει κάποιος τη διαφορά μεταξύ αληθινού και ψεύτικου. Εκτός από τη μάστιγα των fake news, λοιπόν, τα deepfake αναδεικνύονται σε νέο πονοκέφαλο. Εξάλλου, διαδίδονται πολύ εύκολα και λόγω του καθολικά προσβάσιμου λογισμικού. Πίσω από αυτό βρίσκεται η πρόοδος της τεχνητής νοημοσύνης. 
 
Αν έπρεπε να την ορίσει κανείς, θα έλεγε ότι πρόκειται για την τεχνολογία, όπου μηχανές σκέπτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Έχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιο τρόπο, ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν, ή που ο αλγόριθμος “νομίζει” ότι μας ενδιαφέρουν, επειδή ανοίξαμε κάποιες σελίδες.
 
Κυρίαρχη η τεχνητή νοημοσύνη 
 
Η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλλοντας θετικά, από την υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης Chatgpt και γενικότερα η τεχνητή νοημοσύνη οδήγησαν σε απολύσεις δημοσιογράφων και σε μία μεγάλη απεργία των σεναριογράφων στο Χόλιγουντ, την πρώτη εδώ και πολλές δεκαετίες, την οποία υποστήριξαν ακόμα και παγκοσμίου φήμης αστέρες.
 
Ένας αλγόριθμος τεχνητής νοημοσύνης έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν. Ερευνητές απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. 
 
Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Έχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές, είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.
 
Ερωτήματα και ανησυχίες 
 
Όπως κάθε τί, όμως, χρειάζεται ένα αυστηρό πλαίσιο, βασικούς κανόνες και γενικές προδιαγραφές. Ακόμα και το πλαίσιο είναι δύσκολο να διαμορφωθεί. Σύμφωνα με έρευνες, παρατηρούνται σημαντικές διαφορές στον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον της τεχνητής νοημοσύνης, όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου.
 
Αλλά και χωρίς αυτό τον διαχωρισμό και πάλι εγείρονται σημαντικά ερωτήματα και ανησυχίες για τις πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Όταν συλλέγουν στοιχεία, δημιουργούν τα άβαταρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα. 
 
Είναι παραπάνω από σαφές ότι στα λάθος χέρια κάτι τέτοιο θα μπορούσε να είναι όχι απλά παραπλανητικό, αλλά καταστροφικό. Ακόμα και η κατάχρησή του σε ανυποψίαστους δέκτες είναι επιζήμια. Πρωτίστως, τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττεται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Έχουν ήδη υπάρξει θύματα των deepfakes στα σόσιαλ μίντια, γυναίκες που ερήμην τους πρωταγωνίστησαν σε ερωτικά βίντεο. 
 
Αλγόριθμοι εναντίον ανθρώπων 
 
Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για κάθε έναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας, με αυτό τον τρόπο. Ένας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του. Ήδη η τεχνολογία deepfake και τεχνητής νοημοσύνης χρησιμοποιείται για παραγωγή παράνομου πορνογραφικού υλικού, με δράστες ακόμα και ανηλίκους, όπως έχουμε διαπιστώσει και στην χώρα μας. 
 
Τί θα συμβεί, όμως, στην περίπτωση που αναβαθμιστούν, από εργαλείο ικανοποίησης παράνομων διαστροφών μερικών σε παντοδύναμο πολιτικό εργαλείο; Οργανισμοί δηλώνουν ανήσυχοι για το πώς πλαστά βίντεο μπορούν να χρησιμοποιηθούν προκειμένου να υπονομευθεί η ίδια η δημοκρατία. Υποθετικά μπορούν να δημιουργήσουν το απόλυτο χάος, σε παγκόσμιο επίπεδο.
 
Ένα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση, μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο του 2018, ο αριθμός των deepfakes στο διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί…
 

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Παρακαλούμε τα σχολιά σας να ειναι σχετικά με το θέμα, περιεκτικά και ευπρεπή. Για την καλύτερη επικοινωνία δώστε κάποιο όνομα ή ψευδώνυμο. Διαφημιστικά σχόλια δεν δημοσιεύονται.
Επειδή δεν υπάρχει η δυνατότητα διόρθωσης του σχολίου σας παρακαλούμε μετά την τελική σύνταξή του να ελέγχεται. Προτιμάτε την ελληνική γραφή κι όχι την λατινική (κοινώς greeklish).

Πολύ σημαντικό είναι να κρατάτε προσωρινό αντίγραφο του σχολίου σας ειδικά όταν είναι εκτενές διότι ενδέχεται να μην γίνει δεκτό από την Google (λόγω μεγέθους) και θα παραστεί η ανάγκη να το σπάσετε σε δύο ή περισσότερα.

Το σχόλιό σας θα δημοσιευθεί, το αργότερο, μέσα σε λίγες ώρες, μετά από έγκριση του διαχειριστή του ιστολογίου, ο οποίος είναι υποχρεωμένος να δημοσιεύει όλα τα σχόλια που δεν παραβαίνουν τους όρους που έχουμε θέσει στις παρούσες οδηγίες.
Υβριστικά, μη ευπρεπή και προπαγανδιστικά σχόλια θα διαγράφονται ή δεν θα δημοσιεύονται.