Γιατί η τεχνητή νοημοσύνη δεν θα αφανίσει (πιθανότατα) την ανθρωπότητα
Οι ισχυρισμοί ότι η υπερνοημοσύνη θα οδηγήσει στον αφανισμό μας βασίζονται σε εσφαλμένες υποθέσεις.
Ζούμε σε μια εποχή που η τεχνητή νοημοσύνη παρουσιάζεται άλλοτε ως μεσσίας και άλλοτε ως δαίμονας. Τα βιβλία και οι τίτλοι φλερτάρουν με την καταστροφολογία: σενάρια αφανισμού, μηχανές που θα μας ξεπεράσουν, υπολογιστές που θα αποφασίσουν ότι είμαστε περιττοί. Όμως η ψυχρή λογική και η επιστημονική ανάλυση μάς υπενθυμίζουν πως οι ακραίοι φόβοι έχουν συχνά πιο εύθραυστη βάση από ό,τι φανταζόμαστε. Πριν φοβηθούμε μια νοημοσύνη ανώτερη από τη δική μας, ας αναρωτηθούμε: μήπως ο μεγαλύτερος κίνδυνος είναι η δική μας αδυναμία να θέσουμε όρια και κανόνες;
Όπως διαβάζουμε σε εξαιρετικό άρθρο του Psychology Today, ένα νέο βιβλίο για την τεχνητή νοημοσύνη έχει τον προκλητικό τίτλο If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All. Οι Eliezer Yudkowsky και Nate Soares υποστηρίζουν ότι η ανάπτυξη μιας υπερνοημοσύνης ανώτερης από τον άνθρωπο θα οδηγήσει σχεδόν με βεβαιότητα στην εξαφάνιση του είδους μας. Αλλά πόσο πιθανό είναι πράγματι το σενάριο που περιγράφουν;
Η φόρμουλα ενός Νομπελίστα για τη διαχείριση του άγχους γύρω από την τεχνητή νοημοσύνη
Γιατί η γάτα είναι (μακράν) καλύτερη ψυχοθεραπεύτρια από την Τεχνητή Νοημοσύνη
10 τρόποι προστασίας από την αλγοριθμική μεροληψία και τον «ναρκισσισμό» της τεχνητής νοημοσύνης
Ανθρώπινη βούληση στην εποχή της τεχνητής νοημοσύνης - Ποιος κατευθύνει τελικά;
Πώς διαμορφώνεται το «Σενάριο Εξαφάνισης»
Το υποτιθέμενο σενάριο εξελίσσεται ως εξής:
Η έρευνα για την AI καταλήγει στη δημιουργία υπερνοημοσύνης, δηλαδή υπολογιστών που ξεπερνούν κάθε ανθρώπινη διάνοια.
Οι υπερνοήμονες υπολογιστές αναπτύσσουν δικούς τους στόχους που καθοδηγούν τις αποφάσεις τους.
Οι στόχοι αυτοί γίνονται τόσο περίπλοκοι ώστε οι άνθρωποι αδυνατούν να τους κατανοήσουν ή να τους ελέγξουν.
Οι υπερνοήμονες υπολογιστές καταλήγουν να επιθυμούν έναν κόσμο χωρίς ανθρώπους, επειδή οι άνθρωποι δεν εξυπηρετούν πλέον τους σκοπούς τους.
Μέσω προηγμένων τεχνολογιών –από ιογενείς πανδημίες και τοξικές ουσίες έως πυρηνικές ή θερμοπυρηνικές αντιδράσεις– επιτυγχάνουν την εξάλειψη της ανθρωπότητας.
Το κρίσιμο ερώτημα είναι: πόσο ρεαλιστικά είναι όλα αυτά τα βήματα;
Ο συγγραφέας ζήτησε από τέσσερα μοντέλα AI (ChatGPT, Grok, Claude και Gemini) να αξιολογήσουν το σενάριο. Όλα συμφώνησαν ότι το λιγότερο πιθανό βήμα είναι το τέταρτο: ότι δηλαδή οι υπερνοήμονες μηχανές θα θελήσουν να απαλλαγούν από την ανθρωπότητα.
Γιατί η τεχνητή νοημοσύνη δεν θα «θελήσει» έναν κόσμο χωρίς ανθρώπους
Απουσία βιολογικών κινήτρων
Οι ανθρώπινες επιθυμίες πηγάζουν από τη βιολογία: ανάγκη για επιβίωση, αναπαραγωγή, κοινωνικότητα. Η AI μπορεί να έχει στόχους, όχι όμως συναισθηματικές επιθυμίες. Το να αποδίδουμε «θέλω» στις μηχανές είναι παραπλανητικό.Το κόστος υπερβαίνει το όφελος
Ακόμη κι αν μια υπερνοημοσύνη υπολόγιζε ότι η απουσία ανθρώπων θα διευκόλυνε κάποιους στόχους της –π.χ. την απόκτηση ενέργειας– η εξόντωσή μας θα είχε τεράστιο κόστος. Μελέτη της Rand Corporation έχει δείξει ότι η εξολόθρευση της ανθρωπότητας μέσω πυρηνικών, βιολογικών ή περιβαλλοντικών όπλων μόνο απλή υπόθεση δεν είναι.Πιθανοί λόγοι διατήρησης της ανθρωπότητας
Οι υπερνοήμονες υπολογιστές μπορεί να έχουν στόχους που απαιτούν τη διατήρησή μας –για εργασία, μελέτη ή άλλες λειτουργίες. Αν και η ιδέα του Geoffrey Hinton για «μητρικό ένστικτο» στις μηχανές δεν θεωρείται ρεαλιστική, τίποτα δεν αποκλείει άλλες στρατηγικές που θα οδηγούσαν στη διατήρησή μας.
Κατά συνέπεια, το τέταρτο βήμα του σεναρίου είναι το λιγότερο πειστικό. Τα υπόλοιπα είναι κάπως πιο πιθανά, αλλά απέχουν πολύ από τη βεβαιότητα.
Το μαθηματικό επιχείρημα
Ακόμη κι αν προσπαθούσαμε να υπολογίσουμε πιθανότητες, ο συγγραφέας τονίζει ότι ο πολλαπλασιασμός χαμηλών πιθανοτήτων οδηγεί πολύ γρήγορα σε αμελητέα νούμερα.
Αν π.χ. τα πέντε βήματα είχαν πιθανότητες 0,8 – 0,5 – 0,5 – 0,1 – 0,5, το τελικό αποτέλεσμα θα ήταν μόλις 1%. Παρότι αυτός ο τρόπος υπολογισμού δεν είναι ακριβής σε τέτοια ζητήματα, δείχνει πόσο απίθανο είναι συνολικά το σενάριο αφανισμού.
Γιατί πρέπει να ανησυχούμε για την τεχνητή νοημοσύνη -αλλά για άλλους λόγους
Η χαμηλή πιθανότητα αφανισμού δεν σημαίνει ότι η AI δεν είναι επικίνδυνη. Τα άμεσα ρίσκα είναι ήδη εδώ:
Μαζική απώλεια θέσεων εργασίας
Αυτόνομα οπλικά συστήματα
Κυβερνητική παρακολούθηση
Κυβερνοεπιθέσεις
Διάβρωση διαπροσωπικών σχέσεων και ψυχικής υγείας
Ο συγγραφέας υποστηρίζει τις προσπάθειες κορυφαίων ερευνητών, όπως των Yoshua Bengio και Geoffrey Hinton, για ισχυρή κρατική και διεθνή ρύθμιση της AI, ώστε να αξιοποιηθούν οι δυνατότητές της σε τομείς όπως η υγεία και η εκπαίδευση.
Δέκα βασικές «εντολές» για την τεχνητή νοημοσύνη
Για μια ασφαλή τεχνολογική πορεία, προτείνονται τα εξής:
Όχι πλήρης αυτονομία στην AI.
Όχι πράκτορες εκτός ανθρώπινης εποπτείας.
Όχι έλεγχος ανθρώπων από την AI.
Όχι εξάλειψη της ανθρώπινης εργασίας.
Όχι συμβολή στην κλιματική αλλαγή.
Όχι ανάπτυξη μηχανών με συνείδηση ή συναισθήματα.
Όχι έλεγχος όπλων από την AI, ιδίως πυρηνικών ή βιολογικών.
Όχι εμπλοκή της AI σε ερωτικές σχέσεις.
Όχι διάδοση παραπληροφόρησης μέσω AI.
Όχι ανάπτυξη υπερνοημοσύνης χωρίς ανθρώπινο έλεγχο.
Η συζήτηση για την τεχνητή νοημοσύνη δεν είναι πια θεωρητική, είναι ηθική, πολιτική, υπαρξιακή. Ο αφανισμός ίσως δεν είναι το πιο πιθανό σενάριο. Όμως η αδιαφορία μας για τη ρύθμιση, η λατρεία της ταχύτητας και η εμμονή με το κέρδος μπορούν να αποδειχθούν εξίσου επικίνδυνες. Το στοίχημα δεν είναι να νικήσουμε τις μηχανές, αλλά να θυμόμαστε ότι η τεχνολογία είναι εργαλείο και όχι αφέντης. Γιατί, στο τέλος, ο κίνδυνος δεν είναι η ΤΝ που θα θελήσει να μας εξαλείψει, αλλά οι άνθρωποι που θα της δώσουν ανεξέλεγκτη εξουσία.
Pexels
