8 Μαρτίου 2024

Deepfake: Όταν η τεχνητή νοημοσύνη κάνει το ψέμα αλήθεια

Γράφει η ΛΥΓΕΡΟΥ ΝΕΦΕΛΗ
 
 
Λίγο πριν τις προκριμματικές εκλογές του Νιου Χαμσάιρ, χιλιάδες ψηφοφόροι δέχτηκαν ένα παράξενο τηλεφωνικό μήνυμα: «Η ψήφος σας θα κάνει τη διαφορά τον Νοέμβριο, όχι αυτή την Τρίτη» έλεγε και η φωνή έμοιαζε με αυτή του Αμερικανού προέδρου. Όμως, σύμφωνα με ανάλυση της εταιρείας ασφάλειας Pindrop, ήταν ένα μήνυμα-κατασκεύασμα της τεχνητής νοημοσύνης. Την ίδια στιγμή, η τεχνολογία ΑΙ επιτρέπει την δημιουργία ψευδών εικόνων, ήχου, βίντεο, ψηφιακές δημιουργίες που φαίνονται να εμφανίζουν αυθεντικούς ανθρώπους, τα λεγόμενα deepfake βίντεο.  
 
Ποιος δεν έχει δει σε deepfake βίντεο τον Στέφανο Κασσελάκη να χορεύει σε rave party ή τον Κυριάκο Μητσοτάκη να συμμετέχει στο reality bachelor, για να αναφέρουμε ορισμένα από τα πιο χαρακτηριστικά βίντεο viral ιστοσελίδας, που έχουν κατακλύσει το τελευταίο διάστημα τα social media; Βεβαίως, πάντα με την επισήμανση ότι πρόκειται για προϊόν τεχνολογίας deepfake και τεχνητής νοημοσύνης.
 
Την στιγμή που το 2024 είναι έτος με πάρα πολλές εκλογικές αναμετρήσεις, υπάρχει διάχυτη ανησυχία μήπως η τεχνολογία deepfake χρησιμοποιηθεί για κακόβουλους σκοπούς, με στόχο των αθέμιτο επηρεασμό των ψηφοφόρων, αλλάζοντας στην πραγματικότητα ό,τι ξέραμε για τα fake news και όλη την βιομηχανία παραπληροφόρησης που γνωρίζαμε. Προφανώς και δεν κατευνάζονται οι ανησυχίες ότι η νομοθεσία υποχρεώνει πάντα την επισήμανση πως ό,τι βλέπουμε είναι προϊόν τεχνητής νοημοσύνης, στην προβολή σχετικών deepfake βίντεο (μια σύνθετη λέξη που προέρχεται από τα deep learning και fake). Αυτό σημαίνει τροποποιημένα βίντεο, στα οποία ένα άτομο, σε υπάρχουσα φωτογραφία ή βίντεο, αντικαθίσταται από ένα άλλο.
 
Ψηφιακός “πονοκέφαλος” τα deepfakes 
 
Τα deepfakes δημιουργήθηκαν το 2014 από τον Ίαν Γκουντφέλοου, πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας Project της Apple. Το 2017, ένας χρήστης της πορνογραφικής ιστοσελίδας Reddit, με το ψευδώνυμο deepfake, ανάρτησε ένα πορνογραφικό βίντεο με “πρωταγωνίστρια” την Ισραηλινή ηθοποιό Γκαλ Γκαντότ. Αν και πολλά από αυτά είναι κακοφτιαγμένα, εντούτοις υπάρχουν περιπτώσεις που είναι άκρως αληθοφανή, επιβεβαιώνοντας το πόσο έχει εξελιχθεί η συγκεκριμένη τεχνολογία, εγείροντας ερωτήματα και ανησυχίες.
 
Εξάλλου και μόνο ο όρος deepfake που περιλαμβάνει τη λέξη “ψεύτικο” κουβαλάει μία αρνητική χροιά. Άτομα που ειδικεύονται στην ασφάλεια του Διαδικτύου έχουν προ πολλού σημειώσει ότι τα συγκεκριμένα βίντεο αποδεικνύουν ότι έχουμε φτάσει στο σημείο όπου δεν μπορεί να διακρίνει κάποιος τη διαφορά μεταξύ αληθινού και ψεύτικου. Εκτός από τη μάστιγα των fake news, λοιπόν, τα deepfake αναδεικνύονται σε νέο πονοκέφαλο. Εξάλλου, διαδίδονται πολύ εύκολα και λόγω του καθολικά προσβάσιμου λογισμικού. Πίσω από αυτό βρίσκεται η πρόοδος της τεχνητής νοημοσύνης. 
 
Αν έπρεπε να την ορίσει κανείς, θα έλεγε ότι πρόκειται για την τεχνολογία, όπου μηχανές σκέπτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Έχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιο τρόπο, ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν, ή που ο αλγόριθμος “νομίζει” ότι μας ενδιαφέρουν, επειδή ανοίξαμε κάποιες σελίδες.
 
Κυρίαρχη η τεχνητή νοημοσύνη 
 
Η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλλοντας θετικά, από την υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης Chatgpt και γενικότερα η τεχνητή νοημοσύνη οδήγησαν σε απολύσεις δημοσιογράφων και σε μία μεγάλη απεργία των σεναριογράφων στο Χόλιγουντ, την πρώτη εδώ και πολλές δεκαετίες, την οποία υποστήριξαν ακόμα και παγκοσμίου φήμης αστέρες.
 
Ένας αλγόριθμος τεχνητής νοημοσύνης έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν. Ερευνητές απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. 
 
Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Έχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές, είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.
 
Ερωτήματα και ανησυχίες 
 
Όπως κάθε τί, όμως, χρειάζεται ένα αυστηρό πλαίσιο, βασικούς κανόνες και γενικές προδιαγραφές. Ακόμα και το πλαίσιο είναι δύσκολο να διαμορφωθεί. Σύμφωνα με έρευνες, παρατηρούνται σημαντικές διαφορές στον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον της τεχνητής νοημοσύνης, όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου.
 
Αλλά και χωρίς αυτό τον διαχωρισμό και πάλι εγείρονται σημαντικά ερωτήματα και ανησυχίες για τις πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Όταν συλλέγουν στοιχεία, δημιουργούν τα άβαταρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα. 
 
Είναι παραπάνω από σαφές ότι στα λάθος χέρια κάτι τέτοιο θα μπορούσε να είναι όχι απλά παραπλανητικό, αλλά καταστροφικό. Ακόμα και η κατάχρησή του σε ανυποψίαστους δέκτες είναι επιζήμια. Πρωτίστως, τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττεται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Έχουν ήδη υπάρξει θύματα των deepfakes στα σόσιαλ μίντια, γυναίκες που ερήμην τους πρωταγωνίστησαν σε ερωτικά βίντεο. 
 
Αλγόριθμοι εναντίον ανθρώπων 
 
Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για κάθε έναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας, με αυτό τον τρόπο. Ένας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του. Ήδη η τεχνολογία deepfake και τεχνητής νοημοσύνης χρησιμοποιείται για παραγωγή παράνομου πορνογραφικού υλικού, με δράστες ακόμα και ανηλίκους, όπως έχουμε διαπιστώσει και στην χώρα μας. 
 
Τί θα συμβεί, όμως, στην περίπτωση που αναβαθμιστούν, από εργαλείο ικανοποίησης παράνομων διαστροφών μερικών σε παντοδύναμο πολιτικό εργαλείο; Οργανισμοί δηλώνουν ανήσυχοι για το πώς πλαστά βίντεο μπορούν να χρησιμοποιηθούν προκειμένου να υπονομευθεί η ίδια η δημοκρατία. Υποθετικά μπορούν να δημιουργήσουν το απόλυτο χάος, σε παγκόσμιο επίπεδο.
 
Ένα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση, μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο του 2018, ο αριθμός των deepfakes στο διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί…
 



Share

Δεν υπάρχουν σχόλια:

Λίγες οδηγίες πριν επισκεφθείτε το ιστολόγιό μας (Για νέους επισκέπτες)

1. Στην στήλη αριστερά βλέπετε τις αναρτήσεις του ιστολογίου μας τις οποίες μπορείτε ελεύθερα να σχολιάσετε επωνύμως, ανωνύμως ή με ψευδώνυμο, πατώντας απλά την λέξη κάτω από την ανάρτηση που γραφει "σχόλια" ή "δημοσίευση σχολίου" (σας προτείνω να διαβάσετε με προσοχή τις οδηγίες που θα βρείτε πάνω από την φόρμα που θα ανοίξει ώστε να γραψετε το σχόλιό σας). Επίσης μπορείτε να στείλετε σε φίλους σας την συγκεκριμένη ανάρτηση που θέλετε απλά πατώντας τον φάκελλο που βλέπετε στο κάτω μέρος της ανάρτησης. Θα ανοίξει μια φόρμα στην οποία μπορείτε να γράψετε το email του φίλου σας, ενώ αν έχετε προφίλ στο Facebook ή στο Twitter μπορείτε με τα εικονίδια που θα βρείτε στο τέλος της ανάρτησης να την μοιραστείτε με τους φίλους σας.

2. Στην δεξιά στήλη του ιστολογίου μας μπορείτε να βρείτε το πλαίσιο στο οποίο βάζοντας το email σας και πατώντας την λέξη Submit θα ενημερώνεστε αυτόματα για τις τελευταίες αναρτήσεις του ιστολογίου μας.

3. Αν έχετε λογαριασμό στο Twitter σας δινεται η δυνατότητα να μας κάνετε follow και να παρακολουθείτε το ιστολόγιό μας από εκεί. Θα βρείτε το σχετικό εικονίδιο του Twitter κάτω από τα πλαίσια του Google Friend Connect, στην δεξιά στήλη του ιστολογίου μας.

4. Μπορείτε να ενημερωθείτε από την δεξιά στήλη του ιστολογίου μας με τα διάφορα gadgets για τον καιρό, να δείτε ανακοινώσεις, στατιστικά, ειδήσεις και λόγια ή κείμενα που δείχνουν τις αρχές και τα πιστεύω του ιστολογίου μας. Επίσης μπορείτε να κάνετε αναζήτηση βάζοντας μια λέξη στο πλαίσιο της Αναζήτησης (κάτω από τους αναγνώστες μας). Πατώντας την λέξη Αναζήτηση θα εμφανιστούν σχετικές αναρτήσεις μας πάνω από τον χώρο των αναρτήσεων. Παράλληλα μπορείτε να δείτε τις αναρτήσεις του τρέχοντος μήνα αλλά και να επιλέξετε κάποια συγκεκριμένη κατηγορία αναρτήσεων από την σχετική στήλη δεξιά.

5. Μπορείτε ακόμα να αφήσετε το μήνυμά σας στο μικρό τσατάκι του blog μας στην δεξιά στήλη γράφοντας απλά το όνομά σας ή κάποιο ψευδώνυμο στην θέση "όνομα" (name) και το μήνυμά σας στην θέση "Μήνυμα" (Message).

6. Επίσης μπορείτε να μας στείλετε ηλεκτρονικό μήνυμα στην διεύθυνσή μας koukthanos@gmail.com με όποιο περιεχόμενο επιθυμείτε. Αν είναι σε προσωπικό επίπεδο θα λάβετε πολύ σύντομα απάντησή μας.

7. Τέλος μπορείτε να βρείτε στην δεξιά στήλη του ιστολογίου μας τα φιλικά μας ιστολόγια, τα ιστολόγια που παρακολουθούμε αλλά και πολλούς ενδιαφέροντες συνδέσμους.

Να σας υπενθυμίσουμε ότι παρακάτω μπορείτε να βρείτε χρήσιμες οδηγίες για την κατασκευή των αναρτήσεών μας αλλά και στην κάτω μπάρα του ιστολογίου μας ότι έχει σχέση με δημοσιεύσεις και πνευματικά δικαιώματα.

ΣΑΣ ΕΥΧΟΜΑΣΤΕ ΚΑΛΗ ΠΕΡΙΗΓΗΣΗ

Χρήσιμες οδηγίες για τις αναρτήσεις μας.

1. Στις αναρτήσεις μας μπαίνει ΠΑΝΤΑ η πηγή σε οποιαδήποτε ανάρτηση ή μερος αναρτησης που προέρχεται απο άλλο ιστολόγιο. Αν δεν προέρχεται από κάποιο άλλο ιστολόγιο και προέρχεται από φίλο αναγνώστη ή επώνυμο ή άνωνυμο συγγραφέα, υπάρχει ΠΑΝΤΑ σε εμφανες σημείο το ονομά του ή αναφέρεται ότι προέρχεται από ανώνυμο αναγνώστη μας.

2. Για όλες τις υπόλοιπες αναρτήσεις που δεν έχουν υπογραφή ΙΣΧΥΕΙ η αυτόματη υπογραφή της ανάρτησης. Ετσι όταν δεν βλέπετε καμιά πηγή ή αναφορά σε ανωνυμο ή επώνυμο συντάκτη να θεωρείτε ΩΣ ΑΥΣΤΗΡΟ ΚΑΝΟΝΑ ότι ισχύει η αυτόματη υπογραφή του αναρτήσαντα.

3. Οταν βλέπετε ανάρτηση με πηγή ή και επώνυμο ή ανώνυμο συντάκτη αλλά στη συνέχεια υπάρχει και ΣΧΟΛΙΟ, τότε αυτό είναι ΚΑΙ ΠΑΛΙ του αναρτήσαντα δηλαδή είναι σχόλιο που προέρχεται από το ιστολόγιό μας.

Σημείωση: Να σημειώσουμε ότι εκτός των αναρτήσεων που υπογράφει ο διαχειριστής μας, όλες οι άλλες απόψεις που αναφέρονται σε αυτές ανήκουν αποκλειστικά στους συντάκτες των άρθρων. Τέλος άλλες πληροφορίες για δημοσιεύσεις και πνευματικά δικαιώματα μπορείτε να βρείτε στην κάτω μπάρα του ιστολογίου μας.