Διεθνής Ημέρα Εκπαίδευσης: Ο καθηγητής Τέλης Τύμπας μάς μιλάει για AI, ηθική, αυθεντία, αλγορίθμους
Με αφορμή τη Διεθνή Ημέρα Εκπαίδευσης που τιμάται σήμερα 24/1 και το φετινό θέμα που αναδεικνύει τον ρόλο των νέων στη συν-διαμόρφωση της μάθησης, συνομιλούμε με τον Τέλη Τύμπα, καθηγητή στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών και επιστημονικό υπεύθυνο του ευρωπαϊκού προγράμματος Blooming AI, για τη χρήση της Τεχνητής Νοημοσύνης ως εργαλείο εκμάθησης. Η συζήτηση μετατοπίζεται από το τι μπορεί να κάνει ο αλγόριθμος στο τι δεν πρέπει να χάσει η εκπαίδευση, από την τεχνική δυνατότητα στην παιδαγωγική ευθύνη και από την ευκολία των απαντήσεων στην αξία της κρίσης.
Η Διεθνής Ημέρα Εκπαίδευσης έρχεται φέτος σε μια στιγμή που η ίδια η έννοια της μάθησης βρίσκεται υπό επαναδιαπραγμάτευση. Οι νέοι καλούνται να σπουδάσουν, να αξιολογηθούν και να προετοιμαστούν για έναν κόσμο που αλλάζει γρηγορότερα από τα εκπαιδευτικά του συστήματα. Το επίσημο θέμα της χρονιάς, The power of youth in co-creatingeducation, δεν αφορά την αισιοδοξία ούτε τη συμμετοχή ως σύνθημα, αλλά το ποιος έχει λόγο στη διαμόρφωση της γνώσης, των εργαλείων και των κανόνων με τους οποίους αυτή μεταδίδεται. Σε μια περίοδο όπου η τεχνολογία παρεμβαίνει σε κάθε στάδιο της μαθησιακής διαδικασίας, από το διάβασμα μέχρι την αξιολόγηση, η εκπαίδευση δεν κρίνεται από το αν ακολουθεί τις εξελίξεις, αλλά από το αν διατηρεί κρίση, παιδαγωγικό προσανατολισμό και κοινωνική ευθύνη.
Η Τεχνητή Νοημοσύνη βρίσκεται πλέον μέσα στις σχολικές αίθουσες και τα πανεπιστήμια, συχνά χωρίς σαφή όρια και χωρίς κοινή γλώσσα για το τι επιτρέπεται, τι αξιοποιείται και τι αλλοιώνει τον πυρήνα της εκπαιδευτικής σχέσης. Με αφορμή τη φετινή Διεθνή Ημέρα Εκπαίδευσης, συνομιλούμε με τον Τέλη Τύμπα, καθηγητή στο ΕΚΠΑ και επιστημονικό υπεύθυνο του ευρωπαϊκού προγράμματος Blooming AI, για τη χρήση της Τεχνητής Νοημοσύνης ως εργαλείο μάθησης και όχι ως υποκατάστατο σκέψης. Στη συνέντευξη που ακολουθεί μιλά για τις αθέατες μεροληψίες των αλγορίθμων, για τον κίνδυνο να αντικατασταθεί ο παιδαγωγικός ρόλος από τεχνολογικές λύσεις χωρίς λογοδοσία, για τις ανισότητες που μπορούν να ενταθούν αντί να αμβλυνθούν, αλλά και για το τι σημαίνει εκπαίδευση όταν παραμένει δημόσιο αγαθό, ανοιχτό πεδίο γνώσης και χώρος δημοκρατικής συνύπαρξης νέων ανθρώπων.
Τέλης Τύμπας - καθηγητής Ιστορίας της Επιστήμης και της Τεχνολογίας στο ΕΚΠΑ και επιστημονικός υπεύθυνος του ευρωπαϊκού προγράμματος Blooming AI, για τη χρήση της Τεχνητής Νοημοσύνης ως εργαλείο εκμάθησης.
Κύριε Τύμπα, η Παγκόσμια Ημέρα Εκπαίδευσης τιμά ένα ιδανικό που όλοι επικαλούνται αλλά λίγοι ορίζουν. Σε μια εποχή όπου η γνώση παράγεται, διανέμεται και αξιολογείται όλο και περισσότερο από αλγορίθμους, τι ακριβώς γιορτάζουμε σήμερα; Την εκπαίδευση ή απλώς την πρόσβαση σε εργαλεία; Και ποια είναι η ειδοποιός διαφορά;
Είναι μια μεγάλη πρόκληση για την εκπαίδευση αυτό που αποκαλείται σήμερα Τεχνητή Νοημοσύνη, ένας όρος κατ’ ουσίαν ασαφής και ιδιαίτερα γενικευτικός. Στην πραγματικότητα, κάτω από την έννοια της «Τεχνητής Νοημοσύνης» συνυπάρχει ένα τουλάχιστον τρίπτυχο τεχνολογιών. Πρώτον, η συγκέντρωση δεδομένων σε μεγάλη κλίμακα, σχεδόν από κάθε δραστηριότητα της κοινωνικής μας ζωής. Δεύτερον, οι αλγόριθμοι στους οποίους αυτά τα δεδομένα διοχετεύονται. Οι αλγόριθμοι εντός των υπολογιστικών μηχανών αποτελούν την πραγματική υλικότητα της τεχνολογίας. Είναι κάτι απτό και ο σχεδιασμός τους έχει καθοριστική σημασία, ενώ παραμένει σε μεγάλο βαθμό αδιαφανής. Το τρίτο στοιχείο είναι η δημόσια εικόνα της Τεχνητής Νοημοσύνης, δηλαδή αυτό που εμφανίζεται προς τα έξω και γίνεται αντιληπτό από την κοινωνία, το οποίο επίσης ενσωματώνει σοβαρές αδιαφάνειες.
Πλήθος ερευνητριών και ερευνητών διεθνώς έχουν επισημάνει ότι ο σχεδιασμός αυτών των συστημάτων ενδέχεται να ενσωματώνει κομβικές μεροληψίες. Υπό αυτή την έννοια, δεν μπορούμε να θεωρήσουμε αυτονόητο ότι η Τεχνητή Νοημοσύνη μπορεί απλώς να αξιοποιηθεί στην εκπαίδευση χωρίς κριτική επεξεργασία. Η βιβλιογραφία δείχνει ότι μπορούν να υπάρξουν τρόποι διαμόρφωσης της τεχνολογίας ώστε να λειτουργεί υποστηρικτικά για την εκπαιδευτική διαδικασία. Προς το παρόν, ωστόσο, πρόκειται για μια ιδιαίτερα σύνθετη και απαιτητική πρόκληση.
Απαντώντας πιο άμεσα στο ερώτημά σας, θεωρώ πηγή σοβαρής ανησυχίας το ενδεχόμενο να «γιορτάζουμε» τη μέρα της εκπαίδευσης την ίδια στιγμή που, σε πολλά εκπαιδευτικά περιβάλλοντα, τόσο στη χώρα μας όσο και διεθνώς, εξελίσσονται εγχειρήματα που οδηγούν στην εκχώρηση εκπαιδευτικών θεσμών σε εταιρείες Τεχνητής Νοημοσύνης. Ή, αντίστοιχα, προσεγγίσεις που αντιμετωπίζουν την Τεχνητή Νοημοσύνη σαν να μην απαιτείται να ληφθούν υπόψη θεμελιώδεις αξίες της παιδαγωγικής επιστήμης.
Το πρόγραμμα Blooming AI αξιοποιεί την ταξινομία του Bloom, μια παιδαγωγική δομή του 20ού αιώνα. Αναρωτιέται κανείς τι αλλάζει όταν αυτή η ταξινομία συναντά αλγορίθμους του 21ου. Αλήθεια, ποιο είναι το βασικό του σκεπτικό και τι επιδιώκετε να διερευνήσετε μέσα από αυτή τη συνεργασία σε ευρωπαϊκό επίπεδο;
Είμαστε στην αρχή αυτού του προγράμματος. Θεωρώ ότι η κοινότητά μας, η ερευνητική μας ομάδα στο Πανεπιστήμιο Αθηνών, στο ΕΚΠΑ, αλλά και γενικότερα στη χώρα μας, στάθηκε τυχερή που το πρόγραμμα επιλέχθηκε για χρηματοδότηση στο πλαίσιο του Ευρωπαϊκού Προγράμματος Erasmus+. Στο πλαίσιο αυτό, θα συνεργαστούμε με ερευνήτριες και ερευνητές από ένα πανεπιστήμιο της Νορβηγίας, καθώς και με μία ακαδημαϊκή μονάδα στο Λουξεμβούργο που ειδικεύεται σε αντίστοιχα αντικείμενα.
Αυτό ακριβώς είναι και το ερώτημα που μας ενδιαφέρει να αντιμετωπίσουμε. Με ποιον τρόπο μπορούν να σχεδιαστούν τεχνολογίες υποστήριξης της εκπαίδευσης σε όλες τις διαστάσεις της, από τη διδασκαλία έως την έρευνα, έτσι ώστε οι παιδαγωγικές σταθερές να λαμβάνονται σοβαρά υπόψη ήδη από το στάδιο του σχεδιασμού. Αυτός είναι ο βασικός στόχος του προγράμματος.
Στο Blooming AI μιλάτε για κριτική διαμόρφωση της Τεχνητής Νοημοσύνης και όχι απλή χρήση της. Ποιος διαμορφώνει τελικά ποιον; Οι παιδαγωγικές αρχές την τεχνολογία ή οι τεχνολογικές δυνατότητες την παιδαγωγική;
Υπάρχουν δύο διαφορετικά επίπεδα που συχνά συγχέονται. Το ένα αφορά τη χρήση μιας τεχνολογίας και το άλλο τον σχεδιασμό της. Στο επίπεδο της χρήσης, υπάρχει συχνά ο κίνδυνος να θεωρήσουμε ότι η ίδια η τεχνολογία είναι εκ φύσεως ουδέτερη και ότι το μόνο που έχει σημασία είναι αν ο χρήστης είναι «καλός» ή «κακός». Με αυτή τη λογική, ένας ηθικός χρήστης θα τη χρησιμοποιήσει ηθικά, ενώ ένας μη ηθικός χρήστης θα τη χρησιμοποιήσει με προβληματικό τρόπο.
Δεν βρίσκεται όμως εκεί το βασικό πρόβλημα. Το πιο κρίσιμο ζήτημα είναι αν στον εσωτερικό, αδιαφανή σχεδιασμό της τεχνολογίας, στο λεγόμενο «μαύρο κουτί», ενσωματώνονται μεροληψίες. Αν ευνοούνται κοινωνικές ανισότητες και προκαταλήψεις που δεν είναι ορατές στον χρήστη. Αυτό δεν έχει να κάνει με τον καλό ή τον κακό χρήστη, αλλά με τον ίδιο τον τρόπο με τον οποίο έχει σχεδιαστεί η τεχνολογία.
Γι’ αυτό θεωρώ ιδιαίτερα σημαντικό να ξεφύγουμε από την αποκλειστική εστίαση στη χρήση και να στραφούμε στον σχεδιασμό. Να εξετάσουμε με ποια διαφάνεια και με ποια κριτήρια διαμορφώνεται η Τεχνητή Νοημοσύνη, ώστε τα πορίσματα της παιδαγωγικής επιστήμης να αποτελούν μέρος της ήδη από το στάδιο του σχεδιασμού. Όχι να προσπαθούμε εκ των υστέρων, σε τεχνολογίες που έχουν ήδη κατασκευαστεί, να δούμε αν και πώς μπορούν να ενσωματωθούν αυτά τα πορίσματα.
Στην ιστορία της εκπαίδευσης, κάθε τεχνολογικό άλμα συνοδεύτηκε από φόβους για «τεμπελιά του νου». Είναι η AI απλώς άλλη μία επανάληψη αυτού του μοτίβου ή πρόκειται για κάτι ποιοτικά διαφορετικό;
Η Τεχνητή Νοημοσύνη δεν είναι κάτι καινούριο με την έννοια που συχνά παρουσιάζεται. Στην αρχαιότητα και στους Μέσους Χρόνους, φυσικά, δεν υπήρχε κάτι αντίστοιχο. Θα ήταν αδιανόητο να πει κανείς σε έναν μεγάλο φιλόσοφο της κλασικής Αθήνας ότι κάποιες τεχνικές υλικότητες μπορούν να είναι ευφυείς. Το ίδιο θα ίσχυε και για κάθε μεγάλο στοχαστή του Βυζαντίου. Αυτό όμως, από την άλλη, δεν σημαίνει ότι η ιδέα της «ευφυούς τεχνολογίας» έχει ιστορία μόλις τεσσάρων, πέντε ή δέκα ετών.
Από τις απαρχές της ιστορικής περιόδου που ονομάζουμε «καπιταλισμό», οι τεχνικές και στη συνέχεια, πολύ περισσότερο, η τεχνολογία και οι μηχανές του βιομηχανικού καπιταλισμού παρουσιάζονται ως νοήμονες, ως σκεπτόμενες. Πρόκειται, λοιπόν, για ένα φαινόμενο με μεγάλο ιστορικό βάθος. Κάθε φορά που εμφανιζόταν μια νέα γενιά τεχνολογίας και αυτή συνδεόταν με την εκπαίδευση, αναπτυσσόταν έντονη ανησυχία για το αν οι άνθρωποι θα χάσουν την ικανότητά τους να σκέφτονται, για το αν θα «τεμπελιάσει» ο νους. Ιστορικά, μιλώντας πιο συγκεκριμένα ως ιστορικός της τεχνολογίας, αυτό δεν έχει επιβεβαιωθεί.
Αν σκεφτούμε προσεκτικά, θα δούμε ότι έχει πάντα καθοριστική σημασία ποιος και πώς σχεδιάζει την τεχνολογία. Αν την εξετάσει κανείς στατικά, μπορεί να φαίνεται ότι η χρήση της αντικαθιστά έναν μεγαλύτερο ή μικρότερο αριθμό ανθρώπων. Αν όμως λάβουμε υπόψη το συνολικό πλαίσιο, δηλαδή ότι για να σχεδιαστεί, να συντηρηθεί και να καταστεί ασφαλής μια τεχνολογία απαιτούνται νέες δεξιότητες, αυτό που παρατηρείται ιστορικά είναι η διόγκωση της εξάρτησης από τη δεξιοτεχνική εργασία.
Ένα χαρακτηριστικό παράδειγμα είναι οι ηλεκτρονικοί υπολογιστές. Τη δεκαετία του 1940, με τους πρώτους ηλεκτρονικούς υπολογιστές, εργάζονταν με αυτούς λίγες δεκάδες ή εκατοντάδες άνθρωποι. Σήμερα, δισεκατομμύρια άνθρωποι σε ολόκληρο τον πλανήτη εργάζονται καθημερινά με ηλεκτρονικούς υπολογιστές. Δεν έχει επιβεβαιωθεί, επομένως, ιστορικά η εκτίμηση ότι οι μηχανές θα μας αντικαταστήσουν.
Το αν η σημερινή εκδοχή της Τεχνητής Νοημοσύνης μπορεί να μας κάνει πιο ανόητους παραμένει ένα ανοιχτό ενδεχόμενο, κυρίως λόγω των υπερβολών που κυκλοφορούν, της ιδέας ότι η Τεχνητή Νοημοσύνη θα τα κάνει όλα. Σε μια τέτοια περίπτωση, υπάρχει πράγματι ο κίνδυνος να χαθούν κρίσιμες δεξιότητες. Θέλω να ελπίζω ότι αυτό δεν θα συμβεί.
Ακριβώς γι’ αυτό χρειάζεται μια κριτική συζήτηση για την εισαγωγή της Τεχνητής Νοημοσύνης στην εκπαίδευση. Είναι πιθανό κάποιες δεξιότητες να μην είναι πια απαραίτητες, αλλά ταυτόχρονα ανοίγει ένας νέος κύκλος δεξιοτήτων. Είναι κρίσιμο η εκπαίδευση να φροντίσει ώστε αυτές οι νέες δεξιότητες να καλλιεργούνται μέσα από την ίδια την εκπαιδευτική διαδικασία.
Καθώς τα μεγάλα γλωσσικά μοντέλα χρησιμοποιούνται πλέον ευρέως από φοιτητές και εκπαιδευτικούς, ποια είναι κατά τη γνώμη σας τα ουσιαστικά όρια στη χρήση τους και πού κρίνεται τελικά η ποιότητα της εκπαιδευτικής διαδικασίας;
Είναι μια πραγματικότητα ότι τα μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, χρησιμοποιούνται ήδη ευρέως από τις φοιτήτριες και τους φοιτητές. Σε ένα ευρύτερο πλαίσιο, βέβαια, χρησιμοποιούνται από όλους τους ανθρώπους και δεν περιορίζονται μόνο στην ακαδημαϊκή κοινότητα. Υπάρχουν, επίσης, περιπτώσεις όπου εκπαιδευτικοί αξιολογούν εργασίες που έχουν γραφτεί με τη βοήθεια του ChatGPT, χρησιμοποιώντας και οι ίδιοι το ChatGPT.
Παράλληλα, εμφανίζεται και το φαινόμενο της προσπάθειας εντοπισμού του αν μια εργασία έχει γραφτεί με τη χρήση γλωσσικών μοντέλων, για να διαπιστωθεί στη συνέχεια ότι πράγματι χρησιμοποιήθηκαν, αλλά ακολούθως αξιοποιήθηκε ένα άλλο μοντέλο ώστε να «εξανθρωπιστεί» το κείμενο και να μοιάζει ότι έχει γραφτεί αποκλειστικά από άνθρωπο. Δεν θεωρώ ότι η σωστή στάση είναι να δαιμονοποιήσουμε τη χρήση όλων αυτών των εργαλείων.
Το κρίσιμο είναι να βρεθούν τρόποι ώστε να δηλώνεται τι ακριβώς έχει χρησιμοποιηθεί και, κυρίως, οι εκπαιδευτικοί, σε όλες τις βαθμίδες, να μπορούν να δείχνουν με πειστικό τρόπο στις φοιτήτριες και στους φοιτητές ποια είναι τα όρια. Να μη δαιμονοποιούμε τη χρήση της Τεχνητής Νοημοσύνης, αλλά ταυτόχρονα να καταφέρουμε να αναδείξουμε που θα κριθεί η ποιότητα και το μέλλον της εκπαίδευσης: στο αν μπορούμε, μέσα από την εκπαιδευτική διαδικασία, να αξιοποιούμε κάθε είδους ουσιαστική βοήθεια και τεχνολογία με τον σωστό τρόπο και με σαφή όρια.
Τι αλλάζει στη σχέση διδάσκοντος–διδασκόμενου όταν η αυθεντία της γνώσης δεν βρίσκεται πια μόνο στον άνθρωπο αλλά και στον αλγόριθμο;
Ο όρος «αυθεντία» δεν είναι αυτός που θα χρησιμοποιούσα για να περιγράψω το ιδεώδες της εκπαίδευσης. Το ουσιαστικό είναι η συνεργασία και η κοινή μαθησιακή διαδικασία ανάμεσα σε μαθήτριες, μαθητές, φοιτήτριες, φοιτητές και εκπαιδευτικούς. Στην καρδιά της, η εκπαίδευση εμπεριέχει την αμφισβήτηση της αυθεντίας. Υπό αυτή την έννοια, είναι κρίσιμο να αμφισβητείται και αυτό που μπορεί να παρουσιάζεται ως αυθεντία, όπως ένα σύστημα τύπου ChatGPT, ακριβώς επειδή εμφανίζεται να δίνει έτοιμες απαντήσεις.
Η πρόκληση είναι καθηγήτριες και καθηγητές, φοιτήτριες και φοιτητές, από κοινού, να βρίσκουν τρόπους να αντιπαρέρχονται αυτό που εμφανίζεται ως παντογνώστης μηχανισμός και να αναδεικνύουν τα όρια των απαντήσεών του. Να μην αντιμετωπίζεται η τεχνολογία ως κάτι που «τα ξέρει όλα», αλλά ως κάτι που χρειάζεται διαρκώς κριτική προσαρμογή-επεξεργασία.
Ο πραγματικός κίνδυνος για την εκπαίδευση, κατά τη γνώμη μου, είναι να διαχωριστούν οι εκπαιδευτικοί θεσμοί σε δύο κατηγορίες. Από τη μία, εκείνοι που εγκαταλείπονται κυριολεκτικά στην Τεχνητή Νοημοσύνη και, από την άλλη, εκείνοι που επιμένουν να διασφαλίζουν την παρουσία εκπαιδευτικών οι οποίοι μπορούν να βοηθούν τους τους φοιτητές και τις φοιτήτριες να κατανοήσουν πού τελειώνει η τεχνολογία και πού αρχίζει η ανθρώπινη κρίση και η γνώση.
Ποια δεξιότητα θεωρείτε απολύτως μη αυτοματοποιήσιμηστην εκπαίδευση -ακόμα και στο πιο εξελιγμένο σενάριο Τεχνητής Νοημοσύνης;
Θα χρησιμοποιήσω το κλασικό παράδειγμα, της λογοτεχνίας. Η λογοτεχνία βασίζεται ακριβώς στο απροσδόκητο του συνδυασμού των λέξεων και στη μη αναμενόμενη χρήση μεταφορών. Η τεχνολογία, από τη συγκρότησή της, βασίζεται και θα βασίζεται πάντα σε ό,τι υπάρχει ήδη διαθέσιμο σε δεδομένα, σε υλικό που έχει συλλεχθεί στο παρελθόν. Οι συνθέσεις που δημιουργούν οι άνθρωποι, για παράδειγμα στη λογοτεχνία, είναι κάτι τελείως διαφορετικό.
Δεν με ανησυχεί το ενδεχόμενο να χαθεί η δυνατότητα διάκρισης ανάμεσα στη δημιουργία, την τέχνη, τη δημιουργικότητα, τη λογοτεχνία, την εκφραστικότητα και σε αυτό που παράγεται με τη χρήση μηχανών. Αυτή η διαφορά παραμένει κατανοητή και αναγνωρίσιμη.
Η φιλοσοφία ανοιχτού κώδικα του Blooming AI λειτουργεί και ως πολιτική θέση. Πόσο επικίνδυνο είναι να αφήσουμε την εκπαίδευση να εξαρτάται αποκλειστικά από κλειστά, εμπορικά μοντέλα Τεχνητής Νοημοσύνης;
Η φιλοσοφία του Blooming AI και της δικής μας ερευνητικής ομάδας είναι ότι, για να παραχθεί κατάλληλο περιεχόμενο, απαιτείται αντίστοιχη ανοιχτότητα στη διαμόρφωση τόσο των γλωσσικών μοντέλων όσο και της Τεχνητής Νοημοσύνης γενικότερα.
Αυτό έχει σημασία να αναδειχθεί καθαρά. Δεν πρόκειται απλώς για ένα ζήτημα ιδιοκτησίας της τεχνητής νοημοσύνης. Όταν κάτι είναι ανοιχτό, μπορεί να διαμορφωθεί καλύτερο περιεχόμενο. Μπορεί να είναι πιο ασφαλές και πιο συμβατό με τις αξίες και τη δημοκρατία, ενώ ο σχεδιασμός του δεν ευνοεί την αδιαφανή ενσωμάτωση μεροληψιών.
Υπό αυτή την έννοια, είναι κομβικής σημασίας η Τεχνητή Νοημοσύνη να διαμορφώνεται, όσο είναι δυνατόν, όχι με βάση τα συμφέροντα εταιρειών που έχουν κάθε λόγο να προωθούν τους δικούς τους σχεδιασμούς, και μάλιστα μεγάλων εταιρειών, αλλά με βάση το κοινό καλό. Την κοινότητα, τις αξίες της και τη δημοκρατία, μέσα από διαδικασίες ανοιχτότητας.
Αυτό, κατά τη γνώμη μας, οφείλει να ισχύει και στην εκπαίδευση, την οποία αντιλαμβανόμαστε ως δημόσιο αγαθό. Είναι κρίσιμο αυτό το δημόσιο αγαθό όχι μόνο να υποστηρίζεται από την Τεχνητή Νοημοσύνη, αλλά και να συμβάλλει το ίδιο στη διαμόρφωση τεχνητής νοημοσύνης ανοιχτού κώδικα για εκπαιδευτική αξιοποίηση.
Η συζήτηση για την Τεχνητή Νοημοσύνη στην εκπαίδευση συχνά περιορίζεται στο τι επιτρέπεται και τι απαγορεύεται. Είναι αυτό ηθική ή απλός κανονισμός; Ποια είναι, κατά τη γνώμη σας, η ουσιαστική ηθική ευθύνη της εκπαίδευσης όταν χρησιμοποιεί συστήματα που «μαθαίνουν»;
Δεν νομίζω, ειδικά σήμερα, ότι υπάρχει ένα αυστηρό πλαίσιο κανονισμών που να μπορεί να απαντήσει σε αυτά τα ζητήματα. Αρκεί να σκεφτεί κανείς ένα πολύ απλό παράδειγμα. Δεν είναι δυνατόν να έρχονται νέοι και νέες στο πανεπιστήμιο, στα 18 τους χρόνια, και να τους λέμε ότι, μπαίνοντας στην αίθουσα διδασκαλίας, πρέπει να «ξεχάσουν» πως επί δέκα χρόνια χρησιμοποιούν εντατικά κινητό και άλλες τεχνολογίες. Αυτό δεν είναι ρεαλιστικό και σίγουρα δεν είναι ζήτημα απαγόρευσης.
Θεωρώ ότι η σωστή λέξη εδώ είναι η έμπνευση. Να βρούμε τρόπους, μαζί με τις φοιτήτριες και τους φοιτητές, ώστε να εμπνεόμαστε αμοιβαία. Για παράδειγμα, μέσα από την αντιπαραβολή των ορίων των απαντήσεων που δίνει η Τεχνητή Νοημοσύνη και του πόσο πιο δημιουργική μπορεί να γίνει η σκέψη όταν αξιοποιούμε την τεχνολογία, προσθέτοντας όμως τη δική μας γνώση, κρίση και προσπάθεια. Αυτό είναι το ουσιαστικό διακύβευμα.
Για να συμβεί αυτό, χρειάζεται να εμπνευστούμε ακόμη και για να αλλάξουμε το περιεχόμενο των σπουδών. Να διαμορφώσουμε μια γνώση που να ανταποκρίνεται στις μεγάλες προκλήσεις της εποχής μας, όπως η κλιματική αλλαγή, οι πανδημίες ή οι παρεμβάσεις στο γονιδιακό υλικό. Τέτοιοι στόχοι μπορούν να κινητοποιήσουν τους ανθρώπους ώστε να θέλουν να χρησιμοποιούν την Τεχνητή Νοημοσύνη και κάθε άλλη τεχνολογία με τον πιο κατάλληλο τρόπο. Το κρίσιμο είναι πώς σε αυτή τη διαδικασία εντάσσεται η ανθρώπινη δημιουργικότητα.
Η Τεχνητή Νοημοσύνη παρουσιάζεται συχνά ως εκδημοκρατισμός της γνώσης, επειδή προσφέρει καθολική πρόσβαση στην πληροφορία. Συμφωνείτε με αυτή την ανάγνωση ή υπάρχει ο κίνδυνος να οδηγηθούμε σε μια μαζική ψευδαίσθηση γνώσης;
Δεν συμφωνώ με την άποψη ότι η Τεχνητή Νοημοσύνη συνιστά εκδημοκρατισμό της γνώσης. Αντιθέτως, υπάρχει ο κίνδυνος να ενισχυθούν ακόμη περισσότερο οι ανισότητες στην εκπαίδευση. Ένας μεγάλος αριθμός νέων ανθρώπων μπορεί να αντιμετωπιστεί ως μια ομοιογενής μάζα που «δεν χρειάζεται» δάσκαλο, παρά μόνο τεχνητή νοημοσύνη.
Σε ένα τέτοιο σενάριο, εκείνοι και εκείνες που διαθέτουν πόρους θα εξακολουθούν να έχουν πρόσβαση στους κατάλληλους καθηγητές και καθηγήτριες, ικανούς να εμπνεύσουν και να καλλιεργήσουν την κριτική σκέψη. Αυτό δεν είναι εκδημοκρατισμός. Τα διαθέσιμα στοιχεία δείχνουν ότι, αντίθετα, μπορούν να ανοίξουν ακόμη περισσότερο οι ήδη υπάρχουσες ανισότητες στην εκπαίδευση.
Ποιος είναι ο μεγαλύτερος φόβος σας για το μέλλον της εκπαίδευσης στην εποχή της Τεχνητής Νοημοσύνης;
Φοβάμαι ότι, με την Τεχνητή Νοημοσύνη, θα αρχίσουμε να πιστεύουμε πως δεν χρειαζόμαστε πια καλούς δασκάλους και καλές δασκάλες. Αυτό είναι που με ανησυχεί περισσότερο από οτιδήποτε άλλο. Ότι θα καλλιεργηθεί η ιδέα πως δεν χρειαζόμαστε δεξιότητες, τη στιγμή που τις χρειαζόμαστε περισσότερο από ποτέ.
Αν σε είκοσι χρόνια κοιτάξουμε πίσω και διαπιστώσουμε ότι η γενιά που μεγάλωσε με Τεχνητή Νοημοσύνη ήταν εξαιρετικά ικανή να απαντά, αλλά όλο και λιγότερο ικανή να αμφισβητεί, θα φταίει η τεχνολογία ή η εκπαίδευση που δεν τόλμησε να της βάλει όρια;
Η τεχνολογία δεν είναι υποκείμενο. Είναι η συσσωρευμένη εργασία του παρελθόντος, όπως έχει αποκρυσταλλωθεί και αποκτήσει υλικότητες. Με διαφορετικές τεχνολογίες, παράγουμε διαφορετικά αποτελέσματα. Δεν θα φταίει, επομένως, η τεχνολογία. Θα φταίνε οι άνθρωποι που άφησαν την τεχνολογία να διαμορφωθεί ή να συσσωρευτεί με τέτοιον τρόπο ώστε να οδηγηθούμε σε κάτι που δεν ήταν το πιο δόκιμο και που μπορεί, πράγματι, να αποδειχθεί επικίνδυνο. Δεν θα φταίει η τεχνολογία.
Από την άλλη πλευρά, η εκπαίδευση είναι προφανώς εξαιρετικά σημαντική, αλλά δεν λειτουργεί μόνη της. Οι εκπαιδευτικοί θεσμοί δεν είναι απομονωμένοι. Εξαρτώνται από τους θεσμούς της πολιτικής και από το σύνολο των θεσμών μιας δημοκρατικής κοινωνίας. Αν η δημοκρατία ατονήσει συνολικά, αυτό θα αποτυπωθεί αναπόφευκτα και στην εκπαίδευση.
Η εκπαίδευση, λοιπόν, έχει τον δικό της ρόλο. Είναι κρίσιμο η εκπαιδευτική κοινότητα στο σύνολό της να μη παρασυρθεί από την ιδεολογία που υποστηρίζει ότι η Τεχνητή Νοημοσύνη θα τα λύσει όλα και ότι δεν χρειάζεται να κάνουμε τίποτα. Αντίθετα, χρειάζεται να εντείνει τις προσπάθειές της και να δει την Τεχνητή Νοημοσύνη ως ευκαιρία, αξιοποιώντας τα όριά της, για να εμπνεύσει τους μαθητές και τις μαθήτριες.
Υπάρχει ένα λεπτό όριο ανάμεσα στην εξατομικευμένη μάθηση και στην εκπαιδευτική επιτήρηση. Πώς διασφαλίζεται ότι η Τεχνητή Νοημοσύνη δεν μετατρέπει τον φοιτητή σε dataset;
Δεν επικοινωνούμε στις φοιτήτριες και στους φοιτητές την ιδέα ότι η επιστήμη είναι κάτι που μπορεί να βελτιώνεται απλώς και μόνο με τη συγκέντρωση δεδομένων. Μπορεί κανείς να συλλέγει δεδομένα και παρ’ όλα αυτά να κάνει λάθος ως προς τη σημασία της κατηγορίας των δεδομένων που συγκεντρώνει, να βρίσκεται δηλαδή εντελώς εκτός. Στην πραγματικότητα, μπορεί να χρειάζεται μια εντελώς διαφορετική κατηγορία δεδομένων ή διαφορετικές κατηγορίες δεδομένων για να υπάρξει ουσιαστική σύγκριση.
Η αντίληψη ότι η γνώση προκύπτει αυτόματα από τα μεγάλα δεδομένα, από μόνα τους, μπορεί να είναι απολύτως λανθασμένη. Αυτό δεν είναι η επιστήμη. Η επιστήμη, όπως και η γνώση γενικότερα, όπως και η έρευνα, προϋποθέτει τη δυνατότητα να κρίνει κανείς αν συλλέγει τα σωστά δεδομένα. Και αυτό είναι σήμερα ένας πολύ μεγάλος κίνδυνος, ειδικά στην τριτοβάθμια εκπαίδευση, καθώς αυτή η αντίληψη επικοινωνείται από πολλές πλευρές. Ακόμη και άνθρωποι με καλή πρόθεση θεωρούν ότι η λύση είναι να συγκεντρώσουμε περισσότερα δεδομένα. Δεν είναι όμως μόνο ο όγκος. Είναι και το είδος των δεδομένων.
Για να μπορούμε να θέσουμε το ερώτημα ποια είναι τα σωστά δεδομένα, επιστρέφουμε σε όσα συζητάμε εδώ. Οι φοιτήτριες και οι φοιτητές πρέπει να μπορούν να αξιολογούν τις πληροφορίες που τους δίνει ένα σύστημα όπως το ChatGPT, να αντιπαραβάλλουν κατηγορίες δεδομένων και να κρίνουν την εγκυρότητά τους. Πρέπει να έχουν τη δυνατότητα να κρίνουν τα δεδομένα, να εξετάζουν ποιες είναι οι έγκυρες πηγές στο διαδίκτυο και ποια δεδομένα έχουν πραγματική αξία. Αυτό είναι ακριβώς το αντίθετο από το να βασίζεται κανείς μόνο στον όγκο των δεδομένων.
Χρησιμοποιήσατε τρεις κομβικές έννοιες: τη γνώση, την κρίση και την ανθρωπινότητα. Ποια από τις τρεις φοβάστε ότι κινδυνεύει περισσότερο στην εποχή της Τεχνητής Νοημοσύνης;
Νομίζω ότι η γνώση και η κρίση, στο τέλος της ημέρας, είναι το ίδιο πράγμα. Η κρίση μάς οδηγεί στη γνώση, αλλά και η ουσιαστική γνώση είναι προϊόν κρίσης και, με τη σειρά της, καλλιεργεί την κρίση. Αυτό είναι που φοβάμαι περισσότερο. Το ιδεολόγημα ότι δεν χρειαζόμαστε κρίση και ότι ο όγκος των δεδομένων από μόνος του αρκεί για να παραγάγει γνώση.
Θα ήθελα να προσθέσω ότι μέρος των διακρίσεων που μπορεί να αναπαράγονται αθέατα στην εκπαίδευση είναι προϋπάρχουσες, βαθιά ριζωμένες ανισότητες, όπως εκείνες που αφορούν το κοινωνικό φύλο. Χωρίς πάντα να το αντιλαμβανόμαστε, ακόμη και εμείς οι εκπαιδευτικοί, μπορεί να κατευθύνονται οι απαντήσεις που λαμβάνουμε μέσω συστημάτων όπως το ChatGPT με τρόπους που αναπαράγουν στερεότυπα, για παράδειγμα σχετικά με τα υποτιθέμενα όρια των γυναικών στην επιστήμη και την απουσία ορίων για τα αγόρια.
Αυτό απαιτεί ιδιαίτερη προσοχή. Οι μελέτες δείχνουν ότι οι κοινωνικές μεροληψίες και ανισότητες, συμπεριλαμβανομένων των έμφυλων, δεν εξαφανίζονται με την τεχνολογία. Αντίθετα, μπορούν να αναπαράγονται με αθέατο τρόπο, αν δεν υπάρξει κριτική εγρήγορση.
Αν η εκπαίδευση εμπιστευτεί την Τεχνητή Νοημοσύνη χωρίς επίγνωση των έμφυλων προκαταλήψεών της, κινδυνεύουμε να κάνουμε την ανισότητα πιο «έξυπνη», αλλά όχι λιγότερο άδικη;
Απολύτως. Αν σκεφτείτε τι συνέβη στις αρχές της δεκαετίας του ’80, όταν εμφανίστηκε ο προσωπικός υπολογιστής, υπήρχε η προσδοκία ότι η τεχνολογία θα εξάλειφε τις έμφυλες ανισότητες. Συνέβη όμως το αντίθετο. Γνωρίζουμε πολύ καλά ότι φοιτήτριες που ολοκλήρωναν τις ίδιες σπουδές πληροφορικής με τους συμφοιτητές τους κατέληγαν στην αγορά εργασίας με αμοιβές χαμηλότερες κατά περίπου 20%.
Κύριε Τύμπα, τι είναι αυτό που οφείλει να διαφυλάξει η εκπαίδευση ως αδιαπραγμάτευτα ανθρώπινο;
Η εκπαίδευση πρέπει, πρώτα απ’ όλα, να λειτουργεί ως εκπαίδευση στη Δημοκρατία. Η Δημοκρατία δεν είναι ποτέ δεδομένη. Είναι εκείνη που φέρνει τον πολιτισμό και την ευμάρεια, οι οποίες οφείλουν να βασίζονται στη συλλογική ευημερία. Η Τεχνητή Νοημοσύνη έχει και μια διάσταση εξατομίκευσης, με την έννοια ότι ο καθένας κάθεται μόνος του μπροστά σε μια οθόνη.
Γι’ αυτό έχει ιδιαίτερη σημασία να τονιστεί ότι, όποιος κι αν είναι ο ρόλος των οθονών και της τεχνολογίας στη ζωή μας, οι κοινωνίες γίνονται καλύτερες και παραμένουν καλύτερες όταν οι άνθρωποι συζητούν μέσα από δημοκρατικούς θεσμούς. Το σχολείο, πριν απ’ όλα, είναι ένας θεσμός έκθεσης στη συλλογικότητα και στην εμπειρία της δημοκρατικά οργανωμένης συλλογικής ζωής. Για τον λόγο αυτό θεωρώ τον ρόλο του σχολείου απολύτως αναντικατάστατο.
