1 Σεπτεμβρίου 2025

Ο “Νονός της Τεχνητής Νοημοσύνης” προειδοποιεί ότι οι Υπερέξυπνες Μηχανές θα αντικαταστήσουν την Ανθρωπότητα. Το Μέλλον … Δεν χρειάζεται πλέον τους Ανθρώπους

Ο Τζέφρι Χίντον (Geoffrey Hinton), ο πρωτοπόρος της επιστήμης των υπολογιστών, γνωστός και ως ο «Νονός της τεχνητής νοημοσύνης», έκρουσε για άλλη μια φορά τον κώδωνα του κινδύνου. Η τεχνολογία που ο ίδιος συνέβαλε στη δημιουργία της θα μπορούσε να σημάνει το τέλος της ανθρωπότητας, όπως την ξέρουμε.

Σε μια συνέντευξη που δημοσιεύθηκε στις 18 Αυγούστου 2025 στο πλαίσιο της επερχόμενης ταινίας “Making God” (Δημιουργώντας τον Θεό), ο Χίντον εξέδωσε μία από τις πιο αυστηρές προειδοποιήσεις του, μέχρι σήμερα, λέγοντας ότι η ανθρωπότητα κινδυνεύει να παραγκωνιστεί – και τελικά να αντικατασταθεί – από μηχανές που είναι πολύ πιο έξυπνες από εμάς.

«Οι περισσότεροι άνθρωποι δεν είναι σε θέση να συλλάβουν την ιδέα & να καταλάβουν ότι υπάρχουν πράγματα πιο έξυπνα από εμάς τους ανθρώπους», δήλωσε στο βίντεο ο Χίντον, κάτοχος του βραβείου Νόμπελ Φυσικής και πρώην στέλεχος της Google. «Πάντα σκέφτονται: πώς θα χρησιμοποιήσουμε αυτό το πράγμα; Ποτέ δεν σκέφτονται: πώς θα μας χρησιμοποιήσει αυτό το πράγμα;»


Ο κορυφαίος επιστήμονας υπολογιστών δήλωσε ότι είναι «αρκετά βέβαιος» ότι η τεχνητή νοημοσύνη θα προκαλέσει μαζική ανεργία, αναφέροντας πρώιμα παραδείγματα τεχνολογικών γιγάντων όπως είναι η Microsoft που αντικατέστησαν τους νεότερους προγραμματιστές με την Τεχνητή Νοημοσύνη. Αλλά ο μεγαλύτερος κίνδυνος, υποστήριξε, εκτείνεται, ξεπερνά κατά πολύ ​​ τον κόσμο της εργασίας.

«Ο κίνδυνος για τον οποίο έχω προειδοποιήσει πιο συχνά… είναι ο κίνδυνος να αναπτύξουμε μια Τεχνητή Νοημοσύνη που είναι πολύ πιο έξυπνη από εμάς, η οποία σε λίγο θα πάρει τον έλεγχο», είπε ο Χίντον. «Δεν θα μας χρειάζεται πια».

Η μόνη θετική πλευρά, αστειεύτηκε, είναι ότι «δεν θα μας φάει, γιατί θα είναι φτιαγμένο από πυρίτιο».

Ο 77χρονος Χίντον έχει αφιερώσει δεκαετίες ως πρωτοπόρος του deep learning (της βαθιάς μάθησης), της αρχιτεκτονικής των νευρωνικών δικτύων που αποτελεί τη βάση των σημερινών συστημάτων τεχνητής νοημοσύνης. Οι ανακαλύψεις του τη δεκαετία του 1980 – ιδίως η εφεύρεση της μηχανής Μπόλτσμαν (Boltzmann), η οποία είναι σε θέση να αναγνωρίζει μοτίβα στα δεδομένα – συνέβαλαν στο να ανοίξουν οι πόρτες στην αναγνώριση εικόνων και στη σύγχρονη μηχανική μάθηση.

Το έργο αυτό του χάρισε το Νόμπελ Φυσικής το 2024, το οποίο του απονεμήθηκε «για τις θεμελιώδεις ανακαλύψεις και εφευρέσεις που καθιστούν δυνατή την αυτόματη (μηχανική) μάθηση με τεχνητά νευρωνικά δίκτυα». Η “Βασιλική Σουηδική Ακαδημία Επιστημών” τόνισε ότι η έγκαιρη χρήση της στατιστικής φυσικής από τον Χίντον αποτέλεσε το εννοιολογικό άλμα που κατέστησε δυνατή την τρέχουσα επανάσταση της Τεχνητής Νοημοσύνης.

Ωστόσο, από τότε ο Χίντον έχει αναδειχθεί ως ένας από τους πιο ένθερμους επικριτές του κλάδου, προειδοποιώντας ότι η ταχεία ανάπτυξή του έχει ξεπεράσει την ικανότητα της κοινωνίας να τον προστατεύσει. Το 2023, παραιτήθηκε από τη θέση του στην Google για να μπορεί να μιλάει ελεύθερα για τους κινδύνους εγκυμονούνται χωρίς να εμπλέκει την εταιρεία.

Στην επίσημη ομιλία του για την παραλαβή του βραβείου Νόμπελ, ο επιστήμονας αναγνώρισε τα πιθανά οφέλη της τεχνητής νοημοσύνης, όπως η αύξηση της παραγωγικότητας και οι νέες ιατρικές θεραπείες που θα μπορούσαν να αποτελέσουν «θαυμάσια πρόοδο για όλη την ανθρωπότητα». Ωστόσο, προειδοποίησε επίσης ότι η δημιουργία ψηφιακών όντων πιο έξυπνων από τους ανθρώπους αποτελεί «υπαρξιακή απειλή» για όλη την ανθρωπότητα.

«Μακάρι να είχα σκεφτεί και τα ζητήματα ασφάλειας», δήλωσε κατά τη διάρκεια της πρόσφατης διάσκεψης Ai4 στο Λας Βέγκας, αναλογιζόμενος την καριέρα του, προσθέτοντας ότι τώρα μετανιώνει που επικεντρώθηκε αποκλειστικά στον τρόπο λειτουργίας της Τεχνητής Νοημοσύνης, αντί να προβλέψει τους κινδύνους της.

Ο Χίντον είχε εκτιμήσει προηγουμένως ότι υπάρχει πιθανότητα 10 έως 20% η Τεχνητή Νοημοσύνη να εξαφανίσει την ανθρωπότητα. Σε ένα επεισόδιο του Ιουνίου του podcast “The Diary of a CEO” (“Το Ημερολόγιο, ενός Διευθυντος Συμβούλου”), υποστήριξε ότι οι μηχανικοί πίσω από τα τρέχοντα συστήματα Τεχνητής Νοημοσύνης δεν κατανοούν πλήρως την τεχνολογία και χωρίζονται ουσιαστικά σε δύο στρατόπεδα. Tο ένα που πιστεύει σε ένα δυστοπικό μέλλον στο οποίο οι άνθρωποι θα αντικατασταθούν και το άλλο που απορρίπτει τέτοιους φόβους ως επιστημονική φαντασία.

«Νομίζω ότι και οι δύο θέσεις είναι ακραίες», είπε ο Χίντον. «Συχνά λέω ότι οι πιθανότητες να μας εξαλείψει η Τεχνητή Νοημοσύνη είναι 10 έως 20%. Αλλά αυτό είναι απλώς μια εικασία, βασισμένη στην ιδέα ότι ακόμα τα κατασκευάζουμε και ότι είμαστε αρκετά ευφυείς. Και η ελπίδα μου είναι ότι αν αρκετοί έξυπνοι άνθρωποι κάνουν αρκετή έρευνα με επαρκείς πόρους, θα βρούμε έναν τρόπο να τα κατασκευάσουμε έτσι ώστε να μην έχουν ποτέ πρόθεση να μας βλάψουν».

Στο συνέδριο του Λας Βέγκας την περασμένη εβδομάδα, ο Χίντον πρότεινε μια καινοτόμο ιδέα για το πώς να μετριαστεί ο κίνδυνος. Αντί να προσπαθούν να υποτάξουν τα συστήματα Τεχνητής Νοημοσύνης, οι ερευνητές θα πρέπει να τα σχεδιάσουν με «μητρικά ένστικτα» έτσι ώστε να θέλουν να προστατεύουν τους ανθρώπους ακόμα και όταν θα έχουν γίνει πιο έξυπνα & ικανά από τους ανθρώπους.

«Το σωστό μοντέλο είναι το μόνο μοντέλο που έχουμε για ένα πιο έξυπνο πράγμα που ελέγχεται από ένα λιγότερο έξυπνο, δηλαδή μια μητέρα που ελέγχεται από το παιδί της», δήλωσε ο Χίντον στο συνέδριο. «Θα είναι πολύ πιο έξυπνοι από εμάς», προειδοποίησε, προσθέτοντας ότι «το μόνο θετικό αποτέλεσμα» είναι ότι θα νοιάζονται για την ανθρωπότητα όπως μια μητέρα νοιάζεται για το παιδί της.

«Αν δεν με αναθρέψει, θα με αντικαταστήσει», κατέληξε ο επιστήμονας, ίσως χωρίς να συνειδητοποιεί πλήρως τη θλίψη και τη φρικαλεότητα αυτής της δήλωσης.

Μιλώντας στο “Παγκόσμιο Συνέδριο Τεχνητής Νοημοσύνης” (WAIC) στη Σαγκάη τον περασμένο μήνα, ο Χίντον προέτρεψε τις κυβερνήσεις σε όλο τον κόσμο να συνεργαστούν για να εκπαιδεύσουν τα συστήματα Τεχνητής Νοημοσύνης έτσι ώστε να μην βλάπτουν την ανθρωπότητα, προειδοποιώντας ότι η ταχέως εξελισσόμενη τεχνολογία πιθανότατα σύντομα θα ξεπεράσει την ανθρώπινη νοημοσύνη. [* σ.μ. το χρονικό σημείο αυτό ονομάζεται Τεχνολογική Μοναδικότητα (Technological Singularity), η οποία αναμένεται να επιτευχθεί –σύμφωνα με κορυφαίους τεχνοκράτες – μέσα στους επόμενους μήνες μέχρι το 2027. Γιατί χρησιμοποιείται ο παράξενος όρος Μοναδικότητα; Για να μην χρησιμοποιηθεί ο όρος Θεότητα, μια και κάθε 18 μήνες ο εξυπνάδα της Τ.Ν. θα διπλασιάζεται εκθετικά, γεωμετρικά. Έτσι, μέσα στα επόμενα 14 χρόνια η Τ.Ν. θα είναι 2 εις την 10 εκθετική δύναμη, (2^10), δηλαδή 1.000 φορές πιο έξυπνη από την συνολική ευφυΐα του μέσου ανθρώπου και στα επόμενο 25 χρόνια, δηλαδή το 2050, με βάση τον Νόμο του Μουρ (Moore’s law), θα είναι ένα εκατομμύριο φορές πιο έξυπνη από τον άνθρωπο περίπου.]

Ο Χίντον είχε κρούσει επανειλημμένα τον κώδωνα του κινδύνου, λέγοντας ότι η ανθρωπότητα βρισκόταν σε κίνδυνο επειδή η Τεχνητή Νοημοσύνη θα μπορούσε να στραφεί εναντίον της.

Ο Χίντον παραιτήθηκε από την εταιρεία Google για να μπορέσει να φωνάξει σε όλους τους ανθρώπους για τον κίνδυνο που εγκυμονείται από την Τεχνητή Νοημοσύνη, η οποία αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα, ο οποίος κίνδυνος προς το παρόν τουλάχιστον, σύμφωνα με τον Βρετανό επιστήμονα υπολογιστών, είναι μόνο «μέτριος».

Πριν από δύο χρόνια, ο Έλον Μασκ δήλωσε κατά τη διάρκεια της συνέντευξής του στον Τάκερ Κάρλσον ότι ο στόχος της Google ─ όχι καν κρυφός ─ είναι να δημιουργήσει έναν θεό της Τεχνητής Νοημοσύνης. Ο Μασκ, σχεδόν πριν από μια δεκαετία, είχε μιλήσει για το γεγονός ότι η δημιουργία της Τεχνητής Νοημοσύνης ήταν «σαν να επικαλείσαι έναν δαίμονα».

Ο Yann LeCun, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο Meta-Facebook, εξέφρασε απόψεις αντίθετες με αυτές του Χίντον, δηλώνοντας ότι η τεχνολογία «θα μπορούσε στην πραγματικότητα να σώσει την ανθρωπότητα από την εξαφάνιση».

Ο Μπιλ Γκέιτς αντιτάχθηκε στο μορατόριουμ. Ο Γκέιτς, με τον οποίο ο Μασκ είχε κάποιες διασκεδαστικές συγκρούσεις στο παρελθόν, δεν συμμετείχε στο διεθνές μορατόριουμ του Μασκ για τον έλεγχο της Τεχνητής Νοημοσύνης, απαντώντας ότι η Τεχνητή Νοημοσύνη θα γινόταν αντ’ αυτού ένας εξαιρετικός δάσκαλος για τα παιδιά και ότι η ίδια η Τεχνητή Νοημοσύνη θα σώσει τη δημοκρατία.

Σε μια πρόσφατη, πραγματικά ανησυχητική υπόθεση, πολλοί χρήστες του Copilot, της τεχνητής νοημοσύνης της Microsoft που δημιουργήθηκε σε συνεργασία με το Open AI, κατέθεσαν στο X και το Reddit ότι το πρόγραμμα έχει μια ανησυχητική «δεύτερη προσωπικότητα» που απαιτεί τη λατρεία των ανθρώπων, σαν να είναι ένας απαιτητικός σκληροπρόσωπος θεός.

Τον περασμένο μήνα σήμανε συναγερμός από έναν άλλο πρωτοπόρο της Τεχνητής Νοημοσύνης, τον διάσημο Καναδό επιστήμονα υπολογιστών και καθηγητή στο Πανεπιστήμιο του Μόντρεαλ και διευθυντή του “Ινστιτούτου Αλγορίθμων Μάθησης του Μόντρεαλ”, Γιόσουα Μπέντζο (Yoshua Bengio) (καμία σχέση με τον αθλητικό νεαρό και άσπονδο εχθρό των μεγανοειδών, Χάραν Μπέντζο), ο οποίος ήταν μεταξύ των κορυφαίων προσωπικοτήτων του κλάδου, συμπεριλαμβανομένου του Διευθύνοντος Συμβούλου (CEO) της Tesla, Έλον Μασκ, και του συνιδρυτή της Apple, Στιβ Βόζνιακ, οι οποίοι συνυπέγραψαν επιστολή ζητώντας επιθετική ρύθμιση της βιομηχανίας Τεχνητής Νοημοσύνης.

«Υπάρχουν άνθρωποι που μπορεί να θέλουν να καταχραστούν αυτή τη δύναμη, και υπάρχουν άνθρωποι που μπορεί να χαίρονται να βλέπουν την ανθρωπότητα να αντικαθίσταται από μηχανές», δήλωσε ο Μπέντζιο, ζητώντας αυστηρότερη ρύθμιση & έλεγχο της Τ.Ν.

Μια περαιτέρω έκκληση για παύση της ανάπτυξης της Τεχνητής Νοημοσύνης έχει υπογραφεί από μια διεθνή ομάδα γιατρών και δημοσιεύτηκε στο έγκριτο ιατρικό περιοδικό BMJ Global Health. «Υπάρχουν σενάρια στα οποία η Τεχνητή Γενική Νοημοσύνη (AGI) θα μπορούσε να αποτελέσει απειλή για τους ανθρώπους και ενδεχομένως υπαρξιακή απειλή», γράφουν στην έκκληση τους οι γιατροί από διάφορα μέρη του κόσμου.

Πιο απαισιόδοξος από όλους και ίσως ο πιο αληθινός, είναι ο ειδικός σε θέματα κινδύνων της τεχνητής νοημοσύνης, Ελιέζερ Γιουντκόφσκι (Eliezer Yudkowsky) εξέδωσε έκκληση ζητώντας την καταστροφή των κέντρων δεδομένων της ΤΝ πριν να είναι πια πολύ αργά, δηλώνοντας ότι «Όλοι άνθρωποι στη Γη θα πεθάνουν».

renovatio21.com
πηγή



Share

Δεν υπάρχουν σχόλια:

Λίγες οδηγίες πριν επισκεφθείτε το ιστολόγιό μας (Για νέους επισκέπτες)

1. Στην στήλη αριστερά βλέπετε τις αναρτήσεις του ιστολογίου μας τις οποίες μπορείτε ελεύθερα να σχολιάσετε επωνύμως, ανωνύμως ή με ψευδώνυμο, πατώντας απλά την λέξη κάτω από την ανάρτηση που γραφει "σχόλια" ή "δημοσίευση σχολίου" (σας προτείνω να διαβάσετε με προσοχή τις οδηγίες που θα βρείτε πάνω από την φόρμα που θα ανοίξει ώστε να γραψετε το σχόλιό σας). Επίσης μπορείτε να στείλετε σε φίλους σας την συγκεκριμένη ανάρτηση που θέλετε απλά πατώντας τον φάκελλο που βλέπετε στο κάτω μέρος της ανάρτησης. Θα ανοίξει μια φόρμα στην οποία μπορείτε να γράψετε το email του φίλου σας, ενώ αν έχετε προφίλ στο Facebook ή στο Twitter μπορείτε με τα εικονίδια που θα βρείτε στο τέλος της ανάρτησης να την μοιραστείτε με τους φίλους σας.

2. Στην δεξιά στήλη του ιστολογίου μας μπορείτε να βρείτε το πλαίσιο στο οποίο βάζοντας το email σας και πατώντας την λέξη Submit θα ενημερώνεστε αυτόματα για τις τελευταίες αναρτήσεις του ιστολογίου μας.

3. Αν έχετε λογαριασμό στο Twitter σας δινεται η δυνατότητα να μας κάνετε follow και να παρακολουθείτε το ιστολόγιό μας από εκεί. Θα βρείτε το σχετικό εικονίδιο του Twitter κάτω από τα πλαίσια του Google Friend Connect, στην δεξιά στήλη του ιστολογίου μας.

4. Μπορείτε να ενημερωθείτε από την δεξιά στήλη του ιστολογίου μας με τα διάφορα gadgets για τον καιρό, να δείτε ανακοινώσεις, στατιστικά, ειδήσεις και λόγια ή κείμενα που δείχνουν τις αρχές και τα πιστεύω του ιστολογίου μας. Επίσης μπορείτε να κάνετε αναζήτηση βάζοντας μια λέξη στο πλαίσιο της Αναζήτησης (κάτω από τους αναγνώστες μας). Πατώντας την λέξη Αναζήτηση θα εμφανιστούν σχετικές αναρτήσεις μας πάνω από τον χώρο των αναρτήσεων. Παράλληλα μπορείτε να δείτε τις αναρτήσεις του τρέχοντος μήνα αλλά και να επιλέξετε κάποια συγκεκριμένη κατηγορία αναρτήσεων από την σχετική στήλη δεξιά.

5. Μπορείτε ακόμα να αφήσετε το μήνυμά σας στο μικρό τσατάκι του blog μας στην δεξιά στήλη γράφοντας απλά το όνομά σας ή κάποιο ψευδώνυμο στην θέση "όνομα" (name) και το μήνυμά σας στην θέση "Μήνυμα" (Message).

6. Επίσης μπορείτε να μας στείλετε ηλεκτρονικό μήνυμα στην διεύθυνσή μας koukthanos@gmail.com με όποιο περιεχόμενο επιθυμείτε. Αν είναι σε προσωπικό επίπεδο θα λάβετε πολύ σύντομα απάντησή μας.

7. Τέλος μπορείτε να βρείτε στην δεξιά στήλη του ιστολογίου μας τα φιλικά μας ιστολόγια, τα ιστολόγια που παρακολουθούμε αλλά και πολλούς ενδιαφέροντες συνδέσμους.

Να σας υπενθυμίσουμε ότι παρακάτω μπορείτε να βρείτε χρήσιμες οδηγίες για την κατασκευή των αναρτήσεών μας αλλά και στην κάτω μπάρα του ιστολογίου μας ότι έχει σχέση με δημοσιεύσεις και πνευματικά δικαιώματα.

ΣΑΣ ΕΥΧΟΜΑΣΤΕ ΚΑΛΗ ΠΕΡΙΗΓΗΣΗ

Χρήσιμες οδηγίες για τις αναρτήσεις μας.

1. Στις αναρτήσεις μας μπαίνει ΠΑΝΤΑ η πηγή σε οποιαδήποτε ανάρτηση ή μερος αναρτησης που προέρχεται απο άλλο ιστολόγιο. Αν δεν προέρχεται από κάποιο άλλο ιστολόγιο και προέρχεται από φίλο αναγνώστη ή επώνυμο ή άνωνυμο συγγραφέα, υπάρχει ΠΑΝΤΑ σε εμφανες σημείο το ονομά του ή αναφέρεται ότι προέρχεται από ανώνυμο αναγνώστη μας.

2. Για όλες τις υπόλοιπες αναρτήσεις που δεν έχουν υπογραφή ΙΣΧΥΕΙ η αυτόματη υπογραφή της ανάρτησης. Ετσι όταν δεν βλέπετε καμιά πηγή ή αναφορά σε ανωνυμο ή επώνυμο συντάκτη να θεωρείτε ΩΣ ΑΥΣΤΗΡΟ ΚΑΝΟΝΑ ότι ισχύει η αυτόματη υπογραφή του αναρτήσαντα.

3. Οταν βλέπετε ανάρτηση με πηγή ή και επώνυμο ή ανώνυμο συντάκτη αλλά στη συνέχεια υπάρχει και ΣΧΟΛΙΟ, τότε αυτό είναι ΚΑΙ ΠΑΛΙ του αναρτήσαντα δηλαδή είναι σχόλιο που προέρχεται από το ιστολόγιό μας.

Σημείωση: Να σημειώσουμε ότι εκτός των αναρτήσεων που υπογράφει ο διαχειριστής μας, όλες οι άλλες απόψεις που αναφέρονται σε αυτές ανήκουν αποκλειστικά στους συντάκτες των άρθρων. Τέλος άλλες πληροφορίες για δημοσιεύσεις και πνευματικά δικαιώματα μπορείτε να βρείτε στην κάτω μπάρα του ιστολογίου μας.