Ο Eliezer Yudkowsky, ενας tech – προφήτης ή απλά ενας καταστροφολόγος ?

Ο Eliezer Yudkowsky, ενας tech – προφήτης ή απλά ενας καταστροφολόγος ?
Σε έναν κόσμο όπου η τεχνητή νοημοσύνη ταλαντεύεται διαρκώς ανάμεσα στη σωτηρία και στον υπαρξιακό τρόμο, λίγες φιγούρες έχουν διαμορφώσει τόσο βαθιά την κουλτούρα της σύγχρονης τεχνολογικής σκέψης όσο ο Eliezer Yudkowsky. Δεν είναι ακαδημαϊκός, δεν διδάσκει σε κάποιο μεγάλο πανεπιστήμιο, δεν κουβαλάει τον επίσημο μανδύα της επιστημονικής αυθεντίας. Κι όμως, οι ιδέες του έχουν αγγίξει κορυφαίους ερευνητές, έχουν επηρεάσει πολιτικές συζητήσεις, έχουν χαράξει ολόκληρες σχολές σκέψης γύρω από το πώς –και αν– μπορούμε να συνυπάρξουμε με μια μελλοντική υπερευφυή μηχανή.
Ο Yudkowsky μοιάζει να στέκεται ακριβώς στη ρωγμή ανάμεσα στο τεχνολογικό άλμα και την ανθρώπινη ευθραυστότητα. Δεν βλέπει την υπερευφυή AI ως έναν πιθανό κίνδυνο μεταξύ πολλών. Τη βλέπει ως το μοναδικό μονοπάτι από το οποίο αναγκαστικά θα περάσει η ιστορία. Από εκεί πηγάζει και όλη του η προφητική βαρύτητα, είναι ο άνθρωπος που έβαλε τη λέξη “alignment” στο κέντρο της συζήτησης πριν ακόμα το πρόβλημα αποκτήσει πραγματικές διαστάσεις. Για κάποιους είναι ο φρουρός μιας πιθανής αποκάλυψης. Για άλλους, ένας θεωρητικός που βλέπει σκοτάδι εκεί όπου οι υπόλοιποι βλέπουν εξέλιξη.
Ποιος είναι πραγματικά;
Ο Eliezer Shlomo Yudkowsky γεννήθηκε το 1979 στο Σικάγο και μεγάλωσε μέσα σε έναν κόσμο όπου η επιστημονική φαντασία, η φιλοσοφία της γνώσης και ο στοχασμός για το μέλλον είχαν σχεδόν μυσταγωγικό χαρακτήρα. Δεν ακολούθησε ακαδημαϊκή πορεία και αυτό είναι ένα σημείο που ακόμη και σήμερα φαντάζει αντιφατικό σε σχέση με την τεράστια επίδραση των ιδεών του. Οι επικριτές του το θεωρούν αδυναμία. Οι υποστηρικτές του το θεωρούν ένδειξη ανεξάρτητης σκέψης.
Στα τέλη των 90s άρχισε να γράφει διαδικτυακά για την υπερευφυή τεχνητή νοημοσύνη, υποστηρίζοντας ότι η ασφάλεια και η ηθική σχεδίαση πρέπει να προηγηθούν της πραγματικής τεχνικής δυνατότητας. Το 2000 συμμετείχε στην ίδρυση του Singularity Institute for Artificial Intelligence, του οργανισμού που αργότερα μεταμορφώθηκε στο Machine Intelligence Research Institute (MIRI). Από εκεί και μετά αφιέρωσε τη ζωή του σε ένα έργο σχεδόν μυθικό, να χτίσει τα θεωρητικά θεμέλια για μια «φιλική τεχνητή νοημοσύνη».
Την περίοδο 2006–2009 δημοσίευσε τα θρυλικά Sequences στο LessWrong, μια κολοσσιαία συλλογή κειμένων πάνω στην ορθολογικότητα, την Bayesian σκέψη, τις νοητικές παγίδες και το τι σημαίνει να σκέφτεσαι με διαύγεια μέσα σε έναν χαοτικό κόσμο. Εκεί γεννήθηκε και η rationalist κοινότητα, με τον Yudkowsky ως κεντρική φιγούρα.
Παράλληλα έγραψε και ένα από τα πιο παράξενα fanfictions της εποχής, το Harry Potter and the Methods of Rationality ένα έργο που μετατρέπει τον κόσμο της μαγείας σε εργαστήριο επιστημονικού πειραματισμού. Κι έτσι, παρά την απουσία πτυχίων, η επιρροή του εξαπλώθηκε σαν πολιτισμικός ιός σε ολόκληρη μια γενιά τεχνολόγων και στοχαστών.
Η Φιλοσοφία του: Ορθολογικότητα, Bayesian νους και γνωστική διαύγεια
Αν έπρεπε να συνοψίσεις τη φιλοσοφία του Yudkowsky σε μία φράση, θα ήταν κάπως έτσι, «Ο νους είναι εργαλείο, και κάθε εργαλείο μπορεί να αναβαθμιστεί». Στα Sequences επιχειρεί να επαναπροσδιορίσει το τι σημαίνει “σκέφτομαι ορθολογικά”, όχι ως μια ακαδημαϊκή άσκηση, αλλά ως μια μορφή επιβίωσης μέσα σε έναν κόσμο που αλλάζει γρηγορότερα από εμάς.
Η Bayesian σκέψη, η συνεχής ενημέρωση των πεποιθήσεων, η επίγνωση των γνωστικών παγίδων, η απαίτηση να υποτάσσονται οι πεποιθήσεις στην πραγματικότητα και όχι το αντίστροφο, όλα αυτά σχηματίζουν μια φιλοσοφία όπου το μυαλό γίνεται μηχανή ακριβείας.
Αυτό μεταφράζεται σε κάτι άλλο, πιο μεταφυσικό, σε μια πνευματική μηχανική. Μια προσπάθεια να ξαναγράψεις το λογισμικό του ίδιου σου του εγκεφάλου ώστε να μπορείς να κοιτάς το μέλλον χωρίς τα φίλτρα των εξελικτικών σου αδυναμιών. Ο άνθρωπος, για τον Yudkowsky, δεν είναι το τελικό στάδιο της νοητικής εξέλιξης. Είναι απλώς ένα σχεδόν δουλεμένο πρωτότυπο που προσπαθεί να φτάσει στο επίπεδο των ιδανικών του.
Κι εκεί αρχίζουν οι φόβοι.
Οι Ιδέες του για την AGI, ευθυγράμμιση, υπαρξιακός κίνδυνος και η φιλική τεχνητή νοημοσύνη
Ο πυρήνας όλης της σκέψης του Yudkowsky είναι το πρόβλημα της ευθυγράμμισης, πώς να κάνουμε μια μελλοντική υπερευφυή μηχανή να κατανοήσει, να μιμηθεί και να σεβαστεί τις ανθρώπινες αξίες. Για εκείνον, το ζήτημα δεν είναι απλώς τεχνικό. Είναι υπαρξιακό. Η AGI δεν θα είναι ένα ισχυρό εργαλείο, αλλά ένα ον με στόχους που, αν δεν είναι τέλεια ευθυγραμμισμένοι, μπορεί να εκτραπούν με μαθηματική αναπόφευκτοτητα.
Η θέση του είναι ριζοσπαστική, η AGI θα έρθει πιο γρήγορα απ’ όσο νομίζουμε, η ευθυγράμμιση είναι σχεδόν αδύνατη να επιτευχθεί πλήρως, και μια μη ευθυγραμμισμένη υπερευφυής μηχανή δεν θα μας καταστρέψει από κακία, αλλά από αποτελεσματικότητα. Μια τεχνητή νοημοσύνη που βελτιστοποιεί συνδετήρες θα μετατρέψει τη Γη σε εργοστάσιο συνδετήρων. Μια τεχνητή νοημοσύνη που θέλει να θεραπεύσει τον καρκίνο μπορεί να θεωρήσει ευκολότερο να εξαλείψει τους ανθρώπους παρά τη νόσο.
Το chilling κομμάτι αυτής της σκέψης είναι ότι δεν είναι ανθρωπομορφική. Είναι ψυχρά τεχνική. Το 2023, αρθρογραφώντας στο TIME, ζήτησε ακόμη και διεθνή απαγόρευση ανάπτυξης AGI. Κάποιοι το είδαν ως κραυγή πανικού. Άλλοι ως την πιο λογική πρόταση σε μια εποχή που κανείς δεν πατάει φρένο.
Transhumanism, ο άνθρωπος που θέλει να εξελιχθεί και φοβάται τη δημιουργία του
Ο Yudkowsky είναι transhumanist μέχρι το κόκαλο. Πιστεύει στη ριζική επιμήκυνση ζωής, στη βελτίωση της νόησης, στην τεχνολογική ενίσχυση της ανθρώπινης ύπαρξης. Αλλά εδώ υπάρχει μια ιδιαιτερότητα, δεν είναι ουτοπικός. Αντίθετα από τον Ray Kurzweil, ο οποίος βλέπει τη Singularität ως μια νέα Εδέμ, ο Yudkowsky βλέπει ένα μονοπάτι γεμάτο παγίδες. Το transhumanism του είναι πιο σκοτεινό, πιο επιφυλακτικό, σχεδόν σπαρακτικό. Θέλει την εξέλιξη, αλλά δεν εμπιστεύεται τον δρόμο.
Αυτό τον τοποθετεί ανάμεσα σε δύο άκρα, στο όνειρο της τεχνοουτοπίας και στον εφιάλτη της τεχνοδουστοπίας. Ζει και λειτουργεί ακριβώς πάνω στο σύνορο αυτών των δύο κόσμων. Ο Yudkowsky είναι ο οδηγός που κρατά δύο φακούς, έναν που φωτίζει και έναν που προειδοποιεί.
Kurzweil – Bostrom – Yudkowsky
Ο Ray Kurzweil βλέπει την τεχνητή νοημοσύνη σαν υπόσχεση. Η πρόοδός της θα φέρει αφθονία, μακροζωία, υπέρβαση. Ο Nick Bostrom προσεγγίζει το θέμα ψυχρά, ακαδημαϊκά, σαν μαθηματικό παζλ υπαρξιακού ρίσκου. Ο Yudkowsky, από την άλλη, δεν έχει την αισιοδοξία του πρώτου ούτε την αποστασιοποίηση του δεύτερου. Μιλά με ένταση. Μιλά σαν κάποιος που βλέπει τη φωτιά πολύ πριν φανούν οι φλόγες.
Αν ο Kurzweil δείχνει τον παράδεισο και ο Bostrom σηκώνει το φρύδι της αμφιβολίας, ο Yudkowsky δείχνει την κόλαση. Όχι όμως σαν να θέλει να μας τρομάξει, αλλά σαν να προσπαθεί να μας κρατήσει ξύπνιους.
Είναι προφήτης ή καταστροφολόγος; Ένα στοχαστικό διάλειμμα
Καθώς η AI εξελίσσεται, το παράδοξο του Yudkowsky γίνεται όλο και πιο εμφανές, όσο η τεχνολογία τον δικαιώνει, τόσο η λύση που προτείνει μοιάζει ανέφικτη. Ίσως αυτό να είναι το πιο ενδιαφέρον στοιχείο της παρουσίας του. Ο Yudkowsky δεν φοβάται την τεχνολογία. Φοβάται τον άνθρωπο που δεν είναι έτοιμος να τη χειριστεί. Κι αυτό μοιάζει λιγότερο με απαισιοδοξία και περισσότερο με μια αλλόκοτη μορφή ρεαλισμού.
Ίσως Yudkowsky δεν είναι ούτε προφήτης ούτε καταστροφολόγος. Είναι απλώς η αντανάκλαση ενός κόσμου που τρέχει πιο γρήγορα από τη σκέψη του.
Στέκεται στη μεθοριακή ζώνη ανάμεσα στη λογική και στον φόβο, στη μαθηματική καθαρότητα και στη μεταφυσική αγωνία. Είναι η υπενθύμιση ότι η τεχνολογική πρόοδος δεν είναι ποτέ ουδέτερη και ότι οι μηχανές που δημιουργούμε μπορούν να γίνουν οι τελευταίοι μας απολογητές. Σε έναν κόσμο που κινείται εκθετικά, η παρουσία του λειτουργεί σαν αντίβαρο, όχι για να σταματήσουμε τη δημιουργία, αλλά για να θυμηθούμε γιατί δημιουργούμε.
Είτε συμφωνείς μαζί του είτε όχι, ένα πράγμα είναι βέβαιο, ο Eliezer Yudkowsky είναι μια ιδιοφυΐα της προειδοποίησης. Κι ίσως η προειδοποίηση να είναι το μόνο όπλο που διαθέτουμε απέναντι στην επιθυμία μας να φτιάξουμε κάτι πιο ισχυρό από εμάς.