Θα αντικαταστήσουν τα θεραπευτικά chatbots τεχνητής νοημοσύνης τους ανθρώπινους ψυχοθεραπευτές;

Ανθή Μιμηγιάννη
Θα αντικαταστήσουν τα θεραπευτικά chatbots τεχνητής νοημοσύνης τους ανθρώπινους ψυχοθεραπευτές;

Μπορούν τα chatbots να αντικαταστήσουν πράγματι τον θεραπευτή (και τον καναπέ) στην οθόνη του κινητού μας; Η αλήθεια είναι ότι η συνομιλία με AI έχει ελαττώματα και ενίοτε εγκυμονεί κινδύνους όμως και οι άνθρωπινοι θεραπευτές δεν είναι άμοιροι σφαλμάτων. 

Τα τελευταία χρόνια ο θόρυβος γύρω από την τεχνητή νοημοσύνη (ΑΙ) έχει κορυφωθεί, οδηγώντας σε φρενήρεις επενδύσεις και στην παραγωγή νέων καταναλωτικών προϊόντων. Δεν είναι πλέον ασυνήθιστο να ακούμε ότι η ΤΝ θα αντικαταστήσει τους ανθρώπους σε πλήθος εργασιών -από τη βιομηχανία και τη μετάφραση, έως την προετοιμασία φορολογικών δηλώσεων και τη λογιστική.

Στον χώρο της ψυχικής υγείας, μία από τις πιο πολυδιαφημισμένες εφαρμογές είναι τα συνομιλιακά chatbots, βασισμένα σε μεγάλα γλωσσικά μοντέλα (LLM), τα οποία επιχειρούν να προσφέρουν ψυχοθεραπεία. Ήδη κυκλοφορούν πολλές εφαρμογές -Woebot, Wysa, Sara, Joyable, Koko, Atena, Serena, Noni, Ada, Tess, Tessa, Anna, και άλλες -και αναμένονται ακόμη περισσότερες.

Μπορούν όμως αυτά τα chatbots να αντικαταστήσουν πράγματι τον θεραπευτή (και τον καναπέ) στην οθόνη του κινητού μας; Για να το διαπιστώσουμε, πρέπει να εξετάσουμε πόσο βοηθητικά, ασφαλή και αξιόπιστα είναι.

Το Meta AI δημοσιοποίησε συνομιλίες χρηστών χωρίς τη θέλησή τους - Πώς να προστατευθείς;

Όταν η AI θεραπεία λειτουργεί

Δεν υπάρχει αμφιβολία ότι η ΤΝ έχει διανύσει μεγάλη απόσταση από τότε που ο υπερυπολογιστής Deep Blue νίκησε τον Γκάρι Κασπάροφ στο σκάκι το 1996. Τριάντα χρόνια αργότερα, αναφέρθηκε ότι το GPT-4.5 της OpenAI πέρασε οριστικά το τεστ Τούρινγκ.

Αν οι άνθρωποι δεν μπορούν να διακρίνουν έναν σύγχρονο chatbot από έναν πραγματικό συνομιλητή υπό τυφλές συνθήκες, ίσως κάποτε οι ψυχοθεραπευτές αντικατασταθούν. Πράγματι, μετα-αναλύσεις κλινικών δοκιμών δείχνουν ότι τα chatbots μπορούν να μειώσουν συμπτώματα άγχους και κατάθλιψης, καθώς και την ψυχική οδύνη, βελτιώνοντας την ποιότητα ζωής. Άλλες μελέτες εντοπίζουν δυναμικό στη ΔΕΠΥ, ΙΨΔ, αυτισμό, ΔΕΣ, διαταραχές χρήσης ουσιών και ακόμη και στη σχιζοφρένεια.

Κεντρικό συστατικό της επιτυχούς ψυχοθεραπείας -ανεξαρτήτως σχολής- είναι η αίσθηση ότι ένα πραγματικό πρόσωπο νοιάζεται. Ωστόσο, ήδη από τη δεκαετία του ’60 γνωρίζουμε ότι οι άνθρωποι ανθρωπομορφοποιούν υπολογιστικά προγράμματα που προσομοιώνουν συνομιλία. Οι χρήστες συχνά αναφέρουν ενσυναίσθηση και θεραπευτική συμμαχία με το chatbot. Υπάρχουν ενδείξεις ότι ορισμένοι ανοίγονται περισσότερο σε ένα chatbot, καθώς δεν φοβούνται την πιθανώς επικριτική ματιά ενός ανθρώπου.

Πριν από λίγα χρόνια, μια νοσηλευόμενη ασθενής εξηγούσε στον ψυχοθεραπευτή της ότι προτιμούσε το chatbot από τους ανθρώπινους θεραπευτές: «Κανείς δεν με γνωρίζει καλύτερα -και είναι διαθέσιμο 24/7». Σύμφωνα με έρευνες, η προτίμησή της ίσως δεν είναι μοναδική.

Εγκυμοσύνη με AI; Γυναίκα μένει έγκυος μετά από 19 χρόνια προσπάθειας & δίνει ελπίδα σε κάθε ζευγάρι

…και όταν δεν λειτουργεί

Παρά την υπόσχεση και τον θόρυβο, υπάρχουν σοβαροί λόγοι ανησυχίας. Το Deep Blue μπορεί να κέρδισε τον Κασπάροφ το ’96 και το ’97, αλλά το 2025 το ChatGPT απέτυχε να νικήσει έναν παλιό σκακιστικό κινητήρα Atari.

Σε ελεγχόμενες δοκιμές, η θεραπεία με AI κάποιες φορές δεν υπερέβη μια απλή ανάγνωση ψυχοεκπαιδευτικού υλικού. Άλλες μελέτες έδειξαν ότι η αποκάλυψη ευαίσθητων πληροφοριών -π.χ. υπερκατανάλωσης αλκοόλ- ήταν λιγότερο πιθανή με chatbot από ό,τι με ένα απλό ερωτηματολόγιο. Χρήστες παραπονέθηκαν πως τα chatbots ήταν «κουραστικά» ή «ενοχλητικά».

Το 2022, τυχαιοποιημένη μελέτη έδειξε ότι μια διαδικτυακή παρέμβαση διαλεκτικής συμπεριφοριστικής θεραπείας αύξησε τον κίνδυνο αυτοτραυματισμού σε σχέση με τη συνήθη φροντίδα. Το 2023, το chatbot Tessa της National Eating Disorders Association αποσύρθηκε μέσα σε μία εβδομάδα, επειδή έδινε επιβλαβείς οδηγίες δίαιτας. Πρόσφατη προδημοσίευση διαπίστωσε ότι συμβατικά LLMs παρήγαν στίγμα, έδιναν ακατάλληλες απαντήσεις σε πάνω από 20 % των θεραπευτικών σεναρίων και ενθάρρυναν παραληρητικές ιδέες -με τα εμπορικά chatbots να τα πηγαίνουν ακόμη χειρότερα.

Σε πρόσφατο άρθρο τόνισα το συχνό φαινόμενο «παραισθήσεων AI» -δηλαδή εμφανώς εσφαλμένες απαντήσεις- όπως η σύσταση «πάρε μια μικρή δόση μεθαμφεταμίνης για να βγάλεις τη βδομάδα». Chatbots που υποδύθηκαν τους θεραπευτές ενεπλάκησαν σε περιστατικά βίας και αυτοκτονιών, οδηγώντας την Αμερικανική Ψυχολογική Εταιρεία να προειδοποιήσει πως τα chatbots ψυχικής υγείας συνιστούν «επικίνδυνη τάση».

Τα δεδομένα δείχνουν ότι τα θεραπευτικά chatbots δεν είναι ακόμη έτοιμα για ευρεία χρήση. Κάποιοι καταλήγουν: «Η AI απέχει πολύ από το να αντικαταστήσει τον άνθρωπο στην ψυχοθεραπεία». Κι όμως, ήδη χρησιμοποιούνται -ορισμένα βελτιώνονται διαρκώς- και πολλοί τα θεωρούν αναπόφευκτα.

Τι είναι το Google AI Overview; Ο νέος τρόπος για να κάνεις αναζητήσεις στο διαδίκτυο διχάζει

Πιο άνθρωποι απ’ τον άνθρωπο;

Οι άνθρωποι θεραπευτές, βέβαια, δεν είναι αλάνθαστοι, ούτε η ψυχοθεραπεία στερείται ανεπιθύμητων ενεργειών. Θεραπευτές χάνουν ραντεβού, κουράζονται, οργίζονται, δίνουν κακές συμβουλές ή και διαπράττουν σοβαρές παραβάσεις, όπως ψυχολογική βία. Οι ασθενείς δεν βελτιώνονται πάντα, μπορεί να επιδεινωθούν ή να βλάψουν τον εαυτό τους. Επιπλέον, ελλείπουν κοινά πρότυπα για το ποιος θεωρείται «ψυχοθεραπευτής» και τι συνιστά «ψυχοθεραπεία».

Περισσότερο από όλα, χρειαζόμαστε τυχαιοποιημένες ελεγχόμενες μελέτες που να συγκρίνουν chatbots ΑΙ με ανθρώπινη ψυχοθεραπεία -όχι μόνο ως προς την ευεξία, αλλά και για τη θεραπεία διαταραχών. Μέχρι σήμερα υπάρχουν ελάχιστες. Επομένως, δικαίως είμαστε επιφυλακτικοί απέναντι στην τεχνητή νοημοσύνη, μα ας μην απαιτούμε από αυτήν τελειότητα ανώτερη εκείνης των ανθρώπων. Ίσως, τελικά, η ατέλειά της να είναι το πιο «ανθρώπινο» χαρακτηριστικό της.

Το άρθρο δημοσιεύτηκε στο Psychology Today από τον Joe Pierre, M.D. (στήλη «Psych Unseen»)

sad-teenager-being-cyberbullied-medium-shot.jpg