Σελίδες

1 Σεπτεμβρίου 2025

Ο “Νονός της Τεχνητής Νοημοσύνης” προειδοποιεί ότι οι Υπερέξυπνες Μηχανές θα αντικαταστήσουν την Ανθρωπότητα. Το Μέλλον … Δεν χρειάζεται πλέον τους Ανθρώπους

Ο Τζέφρι Χίντον (Geoffrey Hinton), ο πρωτοπόρος της επιστήμης των υπολογιστών, γνωστός και ως ο «Νονός της τεχνητής νοημοσύνης», έκρουσε για άλλη μια φορά τον κώδωνα του κινδύνου. Η τεχνολογία που ο ίδιος συνέβαλε στη δημιουργία της θα μπορούσε να σημάνει το τέλος της ανθρωπότητας, όπως την ξέρουμε.

Σε μια συνέντευξη που δημοσιεύθηκε στις 18 Αυγούστου 2025 στο πλαίσιο της επερχόμενης ταινίας “Making God” (Δημιουργώντας τον Θεό), ο Χίντον εξέδωσε μία από τις πιο αυστηρές προειδοποιήσεις του, μέχρι σήμερα, λέγοντας ότι η ανθρωπότητα κινδυνεύει να παραγκωνιστεί – και τελικά να αντικατασταθεί – από μηχανές που είναι πολύ πιο έξυπνες από εμάς.

«Οι περισσότεροι άνθρωποι δεν είναι σε θέση να συλλάβουν την ιδέα & να καταλάβουν ότι υπάρχουν πράγματα πιο έξυπνα από εμάς τους ανθρώπους», δήλωσε στο βίντεο ο Χίντον, κάτοχος του βραβείου Νόμπελ Φυσικής και πρώην στέλεχος της Google. «Πάντα σκέφτονται: πώς θα χρησιμοποιήσουμε αυτό το πράγμα; Ποτέ δεν σκέφτονται: πώς θα μας χρησιμοποιήσει αυτό το πράγμα;»


Ο κορυφαίος επιστήμονας υπολογιστών δήλωσε ότι είναι «αρκετά βέβαιος» ότι η τεχνητή νοημοσύνη θα προκαλέσει μαζική ανεργία, αναφέροντας πρώιμα παραδείγματα τεχνολογικών γιγάντων όπως είναι η Microsoft που αντικατέστησαν τους νεότερους προγραμματιστές με την Τεχνητή Νοημοσύνη. Αλλά ο μεγαλύτερος κίνδυνος, υποστήριξε, εκτείνεται, ξεπερνά κατά πολύ ​​ τον κόσμο της εργασίας.

«Ο κίνδυνος για τον οποίο έχω προειδοποιήσει πιο συχνά… είναι ο κίνδυνος να αναπτύξουμε μια Τεχνητή Νοημοσύνη που είναι πολύ πιο έξυπνη από εμάς, η οποία σε λίγο θα πάρει τον έλεγχο», είπε ο Χίντον. «Δεν θα μας χρειάζεται πια».

Η μόνη θετική πλευρά, αστειεύτηκε, είναι ότι «δεν θα μας φάει, γιατί θα είναι φτιαγμένο από πυρίτιο».

Ο 77χρονος Χίντον έχει αφιερώσει δεκαετίες ως πρωτοπόρος του deep learning (της βαθιάς μάθησης), της αρχιτεκτονικής των νευρωνικών δικτύων που αποτελεί τη βάση των σημερινών συστημάτων τεχνητής νοημοσύνης. Οι ανακαλύψεις του τη δεκαετία του 1980 – ιδίως η εφεύρεση της μηχανής Μπόλτσμαν (Boltzmann), η οποία είναι σε θέση να αναγνωρίζει μοτίβα στα δεδομένα – συνέβαλαν στο να ανοίξουν οι πόρτες στην αναγνώριση εικόνων και στη σύγχρονη μηχανική μάθηση.

Το έργο αυτό του χάρισε το Νόμπελ Φυσικής το 2024, το οποίο του απονεμήθηκε «για τις θεμελιώδεις ανακαλύψεις και εφευρέσεις που καθιστούν δυνατή την αυτόματη (μηχανική) μάθηση με τεχνητά νευρωνικά δίκτυα». Η “Βασιλική Σουηδική Ακαδημία Επιστημών” τόνισε ότι η έγκαιρη χρήση της στατιστικής φυσικής από τον Χίντον αποτέλεσε το εννοιολογικό άλμα που κατέστησε δυνατή την τρέχουσα επανάσταση της Τεχνητής Νοημοσύνης.

Ωστόσο, από τότε ο Χίντον έχει αναδειχθεί ως ένας από τους πιο ένθερμους επικριτές του κλάδου, προειδοποιώντας ότι η ταχεία ανάπτυξή του έχει ξεπεράσει την ικανότητα της κοινωνίας να τον προστατεύσει. Το 2023, παραιτήθηκε από τη θέση του στην Google για να μπορεί να μιλάει ελεύθερα για τους κινδύνους εγκυμονούνται χωρίς να εμπλέκει την εταιρεία.

Στην επίσημη ομιλία του για την παραλαβή του βραβείου Νόμπελ, ο επιστήμονας αναγνώρισε τα πιθανά οφέλη της τεχνητής νοημοσύνης, όπως η αύξηση της παραγωγικότητας και οι νέες ιατρικές θεραπείες που θα μπορούσαν να αποτελέσουν «θαυμάσια πρόοδο για όλη την ανθρωπότητα». Ωστόσο, προειδοποίησε επίσης ότι η δημιουργία ψηφιακών όντων πιο έξυπνων από τους ανθρώπους αποτελεί «υπαρξιακή απειλή» για όλη την ανθρωπότητα.

«Μακάρι να είχα σκεφτεί και τα ζητήματα ασφάλειας», δήλωσε κατά τη διάρκεια της πρόσφατης διάσκεψης Ai4 στο Λας Βέγκας, αναλογιζόμενος την καριέρα του, προσθέτοντας ότι τώρα μετανιώνει που επικεντρώθηκε αποκλειστικά στον τρόπο λειτουργίας της Τεχνητής Νοημοσύνης, αντί να προβλέψει τους κινδύνους της.

Ο Χίντον είχε εκτιμήσει προηγουμένως ότι υπάρχει πιθανότητα 10 έως 20% η Τεχνητή Νοημοσύνη να εξαφανίσει την ανθρωπότητα. Σε ένα επεισόδιο του Ιουνίου του podcast “The Diary of a CEO” (“Το Ημερολόγιο, ενός Διευθυντος Συμβούλου”), υποστήριξε ότι οι μηχανικοί πίσω από τα τρέχοντα συστήματα Τεχνητής Νοημοσύνης δεν κατανοούν πλήρως την τεχνολογία και χωρίζονται ουσιαστικά σε δύο στρατόπεδα. Tο ένα που πιστεύει σε ένα δυστοπικό μέλλον στο οποίο οι άνθρωποι θα αντικατασταθούν και το άλλο που απορρίπτει τέτοιους φόβους ως επιστημονική φαντασία.

«Νομίζω ότι και οι δύο θέσεις είναι ακραίες», είπε ο Χίντον. «Συχνά λέω ότι οι πιθανότητες να μας εξαλείψει η Τεχνητή Νοημοσύνη είναι 10 έως 20%. Αλλά αυτό είναι απλώς μια εικασία, βασισμένη στην ιδέα ότι ακόμα τα κατασκευάζουμε και ότι είμαστε αρκετά ευφυείς. Και η ελπίδα μου είναι ότι αν αρκετοί έξυπνοι άνθρωποι κάνουν αρκετή έρευνα με επαρκείς πόρους, θα βρούμε έναν τρόπο να τα κατασκευάσουμε έτσι ώστε να μην έχουν ποτέ πρόθεση να μας βλάψουν».

Στο συνέδριο του Λας Βέγκας την περασμένη εβδομάδα, ο Χίντον πρότεινε μια καινοτόμο ιδέα για το πώς να μετριαστεί ο κίνδυνος. Αντί να προσπαθούν να υποτάξουν τα συστήματα Τεχνητής Νοημοσύνης, οι ερευνητές θα πρέπει να τα σχεδιάσουν με «μητρικά ένστικτα» έτσι ώστε να θέλουν να προστατεύουν τους ανθρώπους ακόμα και όταν θα έχουν γίνει πιο έξυπνα & ικανά από τους ανθρώπους.

«Το σωστό μοντέλο είναι το μόνο μοντέλο που έχουμε για ένα πιο έξυπνο πράγμα που ελέγχεται από ένα λιγότερο έξυπνο, δηλαδή μια μητέρα που ελέγχεται από το παιδί της», δήλωσε ο Χίντον στο συνέδριο. «Θα είναι πολύ πιο έξυπνοι από εμάς», προειδοποίησε, προσθέτοντας ότι «το μόνο θετικό αποτέλεσμα» είναι ότι θα νοιάζονται για την ανθρωπότητα όπως μια μητέρα νοιάζεται για το παιδί της.

«Αν δεν με αναθρέψει, θα με αντικαταστήσει», κατέληξε ο επιστήμονας, ίσως χωρίς να συνειδητοποιεί πλήρως τη θλίψη και τη φρικαλεότητα αυτής της δήλωσης.

Μιλώντας στο “Παγκόσμιο Συνέδριο Τεχνητής Νοημοσύνης” (WAIC) στη Σαγκάη τον περασμένο μήνα, ο Χίντον προέτρεψε τις κυβερνήσεις σε όλο τον κόσμο να συνεργαστούν για να εκπαιδεύσουν τα συστήματα Τεχνητής Νοημοσύνης έτσι ώστε να μην βλάπτουν την ανθρωπότητα, προειδοποιώντας ότι η ταχέως εξελισσόμενη τεχνολογία πιθανότατα σύντομα θα ξεπεράσει την ανθρώπινη νοημοσύνη. [* σ.μ. το χρονικό σημείο αυτό ονομάζεται Τεχνολογική Μοναδικότητα (Technological Singularity), η οποία αναμένεται να επιτευχθεί –σύμφωνα με κορυφαίους τεχνοκράτες – μέσα στους επόμενους μήνες μέχρι το 2027. Γιατί χρησιμοποιείται ο παράξενος όρος Μοναδικότητα; Για να μην χρησιμοποιηθεί ο όρος Θεότητα, μια και κάθε 18 μήνες ο εξυπνάδα της Τ.Ν. θα διπλασιάζεται εκθετικά, γεωμετρικά. Έτσι, μέσα στα επόμενα 14 χρόνια η Τ.Ν. θα είναι 2 εις την 10 εκθετική δύναμη, (2^10), δηλαδή 1.000 φορές πιο έξυπνη από την συνολική ευφυΐα του μέσου ανθρώπου και στα επόμενο 25 χρόνια, δηλαδή το 2050, με βάση τον Νόμο του Μουρ (Moore’s law), θα είναι ένα εκατομμύριο φορές πιο έξυπνη από τον άνθρωπο περίπου.]

Ο Χίντον είχε κρούσει επανειλημμένα τον κώδωνα του κινδύνου, λέγοντας ότι η ανθρωπότητα βρισκόταν σε κίνδυνο επειδή η Τεχνητή Νοημοσύνη θα μπορούσε να στραφεί εναντίον της.

Ο Χίντον παραιτήθηκε από την εταιρεία Google για να μπορέσει να φωνάξει σε όλους τους ανθρώπους για τον κίνδυνο που εγκυμονείται από την Τεχνητή Νοημοσύνη, η οποία αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα, ο οποίος κίνδυνος προς το παρόν τουλάχιστον, σύμφωνα με τον Βρετανό επιστήμονα υπολογιστών, είναι μόνο «μέτριος».

Πριν από δύο χρόνια, ο Έλον Μασκ δήλωσε κατά τη διάρκεια της συνέντευξής του στον Τάκερ Κάρλσον ότι ο στόχος της Google ─ όχι καν κρυφός ─ είναι να δημιουργήσει έναν θεό της Τεχνητής Νοημοσύνης. Ο Μασκ, σχεδόν πριν από μια δεκαετία, είχε μιλήσει για το γεγονός ότι η δημιουργία της Τεχνητής Νοημοσύνης ήταν «σαν να επικαλείσαι έναν δαίμονα».

Ο Yann LeCun, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο Meta-Facebook, εξέφρασε απόψεις αντίθετες με αυτές του Χίντον, δηλώνοντας ότι η τεχνολογία «θα μπορούσε στην πραγματικότητα να σώσει την ανθρωπότητα από την εξαφάνιση».

Ο Μπιλ Γκέιτς αντιτάχθηκε στο μορατόριουμ. Ο Γκέιτς, με τον οποίο ο Μασκ είχε κάποιες διασκεδαστικές συγκρούσεις στο παρελθόν, δεν συμμετείχε στο διεθνές μορατόριουμ του Μασκ για τον έλεγχο της Τεχνητής Νοημοσύνης, απαντώντας ότι η Τεχνητή Νοημοσύνη θα γινόταν αντ’ αυτού ένας εξαιρετικός δάσκαλος για τα παιδιά και ότι η ίδια η Τεχνητή Νοημοσύνη θα σώσει τη δημοκρατία.

Σε μια πρόσφατη, πραγματικά ανησυχητική υπόθεση, πολλοί χρήστες του Copilot, της τεχνητής νοημοσύνης της Microsoft που δημιουργήθηκε σε συνεργασία με το Open AI, κατέθεσαν στο X και το Reddit ότι το πρόγραμμα έχει μια ανησυχητική «δεύτερη προσωπικότητα» που απαιτεί τη λατρεία των ανθρώπων, σαν να είναι ένας απαιτητικός σκληροπρόσωπος θεός.

Τον περασμένο μήνα σήμανε συναγερμός από έναν άλλο πρωτοπόρο της Τεχνητής Νοημοσύνης, τον διάσημο Καναδό επιστήμονα υπολογιστών και καθηγητή στο Πανεπιστήμιο του Μόντρεαλ και διευθυντή του “Ινστιτούτου Αλγορίθμων Μάθησης του Μόντρεαλ”, Γιόσουα Μπέντζο (Yoshua Bengio) (καμία σχέση με τον αθλητικό νεαρό και άσπονδο εχθρό των μεγανοειδών, Χάραν Μπέντζο), ο οποίος ήταν μεταξύ των κορυφαίων προσωπικοτήτων του κλάδου, συμπεριλαμβανομένου του Διευθύνοντος Συμβούλου (CEO) της Tesla, Έλον Μασκ, και του συνιδρυτή της Apple, Στιβ Βόζνιακ, οι οποίοι συνυπέγραψαν επιστολή ζητώντας επιθετική ρύθμιση της βιομηχανίας Τεχνητής Νοημοσύνης.

«Υπάρχουν άνθρωποι που μπορεί να θέλουν να καταχραστούν αυτή τη δύναμη, και υπάρχουν άνθρωποι που μπορεί να χαίρονται να βλέπουν την ανθρωπότητα να αντικαθίσταται από μηχανές», δήλωσε ο Μπέντζιο, ζητώντας αυστηρότερη ρύθμιση & έλεγχο της Τ.Ν.

Μια περαιτέρω έκκληση για παύση της ανάπτυξης της Τεχνητής Νοημοσύνης έχει υπογραφεί από μια διεθνή ομάδα γιατρών και δημοσιεύτηκε στο έγκριτο ιατρικό περιοδικό BMJ Global Health. «Υπάρχουν σενάρια στα οποία η Τεχνητή Γενική Νοημοσύνη (AGI) θα μπορούσε να αποτελέσει απειλή για τους ανθρώπους και ενδεχομένως υπαρξιακή απειλή», γράφουν στην έκκληση τους οι γιατροί από διάφορα μέρη του κόσμου.

Πιο απαισιόδοξος από όλους και ίσως ο πιο αληθινός, είναι ο ειδικός σε θέματα κινδύνων της τεχνητής νοημοσύνης, Ελιέζερ Γιουντκόφσκι (Eliezer Yudkowsky) εξέδωσε έκκληση ζητώντας την καταστροφή των κέντρων δεδομένων της ΤΝ πριν να είναι πια πολύ αργά, δηλώνοντας ότι «Όλοι άνθρωποι στη Γη θα πεθάνουν».

renovatio21.com
πηγή

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Παρακαλούμε τα σχολιά σας να ειναι σχετικά με το θέμα, περιεκτικά και ευπρεπή. Για την καλύτερη επικοινωνία δώστε κάποιο όνομα ή ψευδώνυμο. Διαφημιστικά σχόλια δεν δημοσιεύονται.
Επειδή δεν υπάρχει η δυνατότητα διόρθωσης του σχολίου σας παρακαλούμε μετά την τελική σύνταξή του να ελέγχεται. Προτιμάτε την ελληνική γραφή κι όχι την λατινική (κοινώς greeklish).

Πολύ σημαντικό είναι να κρατάτε προσωρινό αντίγραφο του σχολίου σας ειδικά όταν είναι εκτενές διότι ενδέχεται να μην γίνει δεκτό από την Google (λόγω μεγέθους) και θα παραστεί η ανάγκη να το σπάσετε σε δύο ή περισσότερα.

Το σχόλιό σας θα δημοσιευθεί, το αργότερο, μέσα σε λίγες ώρες, μετά από έγκριση του διαχειριστή του ιστολογίου, ο οποίος είναι υποχρεωμένος να δημοσιεύει όλα τα σχόλια που δεν παραβαίνουν τους όρους που έχουμε θέσει στις παρούσες οδηγίες.
Υβριστικά, μη ευπρεπή και προπαγανδιστικά σχόλια θα διαγράφονται ή δεν θα δημοσιεύονται.