Η παρακμή της σκέψης στην εποχή της ΑΙ και γιατί η τεχνητή νοημοσύνη δεν είναι το μέλλον της γνώσης

Ανθή Μιμηγιάννη
Η παρακμή της σκέψης στην εποχή της ΑΙ και γιατί η τεχνητή νοημοσύνη δεν είναι το μέλλον της γνώσης

Τα Μεγάλα Γλωσσικά Μοντέλα (Large Language Models - LLMs) είναι αλγόριθμοι τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε τεράστιες ποσότητες κειμένων (βιβλία, άρθρα, ιστοσελίδες) και έχουν σχεδιαστεί για να παράγουν ανθρώπινο λόγο, προβλέποντας στατιστικά ποια λέξη ταιριάζει καλύτερα στη συνέχεια μιας πρότασης. Υπάρχει κάτι, βέβαια, που η τεχνητή νοημοσύνη δεν θα μπορέσει ποτέ να μιμηθεί: το υπαρξιακό ρίγος της σκέψης. Το πάθος της ερώτησης. Τη μοναξιά της έρευνας. Την ευθύνη του συμπεράσματος. Τον φόβο του λάθους. Και, και, και. 

Σε μια εποχή που η επιστήμη κινδυνεύει να μετατραπεί σε αριθμητικό παιχνίδι παραγωγής, ένα άρθρο του καθηγητή Ψυχολογίας Steven R. Shaw που διαβάσαμε στο Psychology Today έρχεται ως καμπανάκι. Μια ψύχραιμη αλλά ριζική αμφισβήτηση της αδιάκριτης υιοθέτησης τεχνητής νοημοσύνης στην ερευνητική και πανεπιστημιακή καθημερινότητα. Και εμείς, με τη σειρά μας, το αναμεταδίδουμε. Όχι για να ανακόψουμε την τεχνολογική πρόοδο, αλλά για να υπερασπιστούμε το ανθρώπινο μέτρο. Γιατί χωρίς κρίση, φαντασία και ευθύνη, η ακαδημαϊκή γνώση γίνεται απλώς περιτύλιγμα εντυπώσεων.

Η τεχνητή νοημοσύνη δεν πρέπει να γίνει το μέλλον της ακαδημαϊκής ζωής.
Όχι γιατί δεν είναι χρήσιμη αλλά γιατί η ακαδημαϊκή ζωή έχει κάτι που η ΤΝ δεν θα έχει ποτέ: ψυχή.

Ο Shaw, μέσα από ένα καθαρόαιμα στοχαστικό άρθρο, αναρωτιέται τι σημαίνει να είσαι ακαδημαϊκός στον 21ο αιώνα. Και κυρίως: τι σημαίνει να είσαι άνθρωπος μέσα στην επιστήμη. Γιατί όσο η τεχνολογία υπόσχεται συντομεύσεις, ταχύτητα και αποδοτικότητα, τόσο αυξάνεται ο κίνδυνος να χαθεί το βασικότερο χαρακτηριστικό της γνώσης: η εσωτερική της αναγκαιότητα. Όχι απλώς η παραγωγή πληροφορίας, αλλά η δημιουργία νοήματος.

Η χρήση της ΤΝ σε πανεπιστήμια και ερευνητικά κέντρα βαφτίζεται «αναπόφευκτη». Όσοι δεν την ακολουθούν χαρακτηρίζονται ξεπερασμένοι. Ίσως, όπως λέει κι ο ίδιος ο συγγραφέας, να είναι όντως «μοιραία», όπως η βιομηχανοποίηση της υφαντουργίας. Αλλά η έννοια του «μοιραίου» είναι αφήγημα, όχι δεδομένο. Και πίσω από κάθε αφήγημα, υπάρχει συμφέρον. Γιατί πίσω από κάθε Μεγάλο Γλωσσικό Μοντέλο (LLM) δεν βρίσκεται κάποια ανώτερη ουδετερότητα, αλλά μια εταιρεία, μια εμπορική στρατηγική, μια οικονομία που προτάσσει το φαινομενικό έναντι του ουσιώδους.

Ευφυΐα και τεχνητή νοημοσύνη: Μπορείς να γίνεις πιο έξυπνος αν σκέφτεσαι λιγότερο;

Μπορούν τα chatbots τεχνητής νοημοσύνης να επιδεινώσουν την ψυχική υγεία;

Τι είναι τα Μεγάλα Γλωσσικά Μοντέλα (LLMs);

Τα Μεγάλα Γλωσσικά Μοντέλα (Large Language Models - LLMs) είναι αλγόριθμοι τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε τεράστιες ποσότητες κειμένων (βιβλία, άρθρα, ιστοσελίδες) και έχουν σχεδιαστεί για να παράγουν ανθρώπινο λόγο, προβλέποντας στατιστικά ποια λέξη ταιριάζει καλύτερα στη συνέχεια μιας πρότασης.

Παραδείγματα: ChatGPT, Google Gemini, Copilot, Grok κ.ά.

Δεν «καταλαβαίνουν». Δεν «γνωρίζουν». Προβλέπουν.

Ανασυνθέτουν υπάρχουσες ιδέες χωρίς αυθεντική κρίση ή πρωτοτυπία. Το πρόβλημα δεν είναι μόνο η λογοκλοπή, αλλά η απώλεια προέλευσης και ευθύνης του λόγου.

Τα LLMs δεν είναι ουδέτερα εργαλεία. Παράγουν λόγο χωρίς συνείδηση, αναπαράγουν ιδέες χωρίς κατανόηση, συνθέτουν γνώση χωρίς κρίση. Οι λέξεις που προσφέρουν μοιάζουν αληθινές, αλλά είναι προϊόν πιθανοτήτων. Προβλέψεις, όχι σκέψεις. Το μοντέλο δεν γνωρίζει τι λέει –μαντεύει τι θα έλεγε κάποιος άλλος. Και το πρόβλημα δεν είναι μόνο η λογοκλοπή χωρίς αναφορές. Είναι ότι ο λόγος χάνει την προέλευσή του. Και μαζί της, την ευθύνη.

Η πληροφορία που τροφοδοτεί τα LLMs είναι, τις περισσότερες φορές, επιστημονικά άρθρα χωρίς συναινέσεις, βιβλιογραφία υπό «εύλογη χρήση», και –το πιο συχνό– υλικό από φόρουμ, social media και σχόλια στο YouTube. Μια τεράστια μηχανή που φιλτράρει τον παγκόσμιο δημόσιο λόγο και τον συμπιέζει σε προτάσεις που «φαίνονται σωστές». Και αυτή ακριβώς είναι η παγίδα: η εντύπωση της εγκυρότητας. Όχι η ακρίβεια, αλλά η αίσθηση της ακρίβειας.

Όταν ο Tesla έλεγε «Δεν με πειράζει που μου έκλεψαν την ιδέα. Με πειράζει που δεν έχουν καμία δική τους», δεν αναφερόταν σε πνευματικά δικαιώματα. Αναφερόταν στην ανικανότητα της δημιουργίας. Και αυτή είναι η βαθύτερη κριτική απέναντι στα LLMs: δεν είναι ότι μας κλέβουν τις ιδέες -είναι ότι δεν έχουν καμία δική τους.

Η πανεπιστημιακή κοινότητα, ήδη πιεσμένη από την απαίτηση της «παραγωγικότητας», βρίσκει στα εργαλεία ΑΙ μια δελεαστική συντόμευση: πιο γρήγορα abstracts, περισσότερες δημοσιεύσεις, πιο καλογραμμένες προτάσεις για χρηματοδότηση. Αλλά ποιος είναι ο σκοπός της επιστήμης; Να παράγει περισσότερο ή να στοχάζεται βαθύτερα; Να υποτάσσεται σε KPI ή να διευρύνει τον ανθρώπινο ορίζοντα;

Ο επιστήμονας δεν είναι γραφιάς. Δεν είναι μηχανή παραγωγής PDF. Είναι ερευνητής, δημιουργός, κριτής του κόσμου και του εαυτού του. Η χρήση ΑΙ ως συντομευτικό εργαλείο μπορεί να μοιάζει πρακτική αλλά συντομεύεις από τι; Από τον κόπο της σκέψης; Από το άλγος της ανακάλυψης; Από τη συναισθηματική εμπλοκή με το αντικείμενο; Από την ίδια την αναμέτρηση με το άγνωστο;

Δεν είμαστε κατά της τεχνολογίας. Ούτε κατά της χρήσης εργαλείων που μπορούν να βοηθήσουν στην οργάνωση, την αναζήτηση, την κατανόηση. Όμως άλλο η εργαλειοποίηση –και άλλο η υποκατάσταση. Η χρήση της AI στην ακαδημαϊκή καθημερινότητα πρέπει να παραμένει ενσυνείδητη, περιορισμένη, επικουρική. Πρέπει να διατηρεί τη θέση της ως εργαλείο, όχι ως αυθεντία.

Γιατί υπάρχει κάτι που η τεχνητή νοημοσύνη δεν θα μπορέσει ποτέ να μιμηθεί: το υπαρξιακό ρίγος της σκέψης. Το πάθος της ερώτησης. Τη μοναξιά της έρευνας. Την ευθύνη του συμπεράσματος. Τον φόβο του λάθους. Τη χαρά της αποκάλυψης. Τη φθορά της αμφιβολίας. Την αναμέτρηση με την ανθρώπινη συνθήκη.

Η επιστήμη είναι πράξη. Είναι στάση ζωής. Είναι ευθύνη απέναντι στην αλήθεια –όχι στον εντυπωσιασμό. Και ο λόγος του ακαδημαϊκού πρέπει να ξεκινά από το στομάχι, να περνάει από την καρδιά, και να καταλήγει στο μυαλό. Όχι το αντίστροφο.

Το άρθρο του Steven R. Shaw, μακριά από τον πανικό και τον μηδενισμό, είναι μια νηφάλια υπεράσπιση της ουσίας. Και εμείς, με τη σειρά μας, συμφωνούμε γιατί θέλουμε να προστατεύσουμε το δικαίωμα του ανθρώπου να παράγει νόημα.

Η τεχνητή νοημοσύνη δεν πρέπει να γίνει το μέλλον της ακαδημαϊκής ζωής.
Όχι γιατί δεν είναι χρήσιμη αλλά διότι έχει κάτι που η ΑΙ δεν θα έχει ποτέ: ψυχή.

metaverse-avatar-collage-concept.jpg