Μπορούν οι ένορκοι-ΑΙ να αποδώσουν πιο δίκαια από τους ανθρώπους;

Ανθή Μιμηγιάννη
Μπορούν οι ένορκοι-ΑΙ να αποδώσουν πιο δίκαια από τους ανθρώπους;

Μια νέα μελέτη δείχνει ότι η τεχνητή νοημοσύνη ακολουθεί τον νόμο πιο πιστά από τους ανθρώπους, ανοίγοντας μια δύσκολη συζήτηση για το μέλλον της Δικαιοσύνης.

Η συζήτηση για το πόσο βαθιά μπορεί να εισβάλει η τεχνητή νοημοσύνη στη Δικαιοσύνη ήταν μέχρι πρόσφατα ένα θεωρητικό παιχνίδι. Ένα «ωραίο να το συζητάμε, τρομακτικό να το δοκιμάσουμε». Όμως το Psychology Today παρουσίασε μια νέα μελέτη που διαλύει την άνεση αυτής της θεωρητικολογίας: σε μια υποθετική υπόθεση σεξουαλικής επίθεσης, οι ένορκοι-ΑΙ φάνηκαν πιο συνεπείς στον νόμο από τους ανθρώπους.

Η έρευνα δημοσιεύτηκε στο επιστημονικό περιοδικό Law and Human Behavior και βασίστηκε στη σύγκριση τριών μεγάλων γλωσσικών μοντέλων -δύο εκδόσεων του ChatGPT και του Claude της Anthropic- με 752 ανθρώπους που είχαν κληθεί να «εκδικάσουν» την ίδια υπόθεση. Όλοι διάβασαν καταθέσεις, αγορεύσεις, οδηγίες δικαστή και τελικά εξέδωσαν απόφαση.

Εδώ αρχίζει το ενδιαφέρον: ενώ οι άνθρωποι και οι μηχανές έκριναν παρόμοια την πιθανότητα ενοχής του κατηγορουμένου, οι άνθρωποι καταδίκασαν σχεδόν διπλάσιες φορές.

Οι ΑΙ ένορκοι καταδίκασαν στο 21%. Οι άνθρωποι στο 49%.

Αυτό από μόνο του αλλάζει όλη τη συζήτηση.

Η Meta θα χρησιμοποιεί τις συνομιλίες σου με την τεχνητή νοημοσύνη για να συλλέγει δεδομένα

Η τεχνητή νοημοσύνη μπορεί πλέον να βλέπει, να ακούει, να μιλά, να γεύεται και να δρα

Όταν η Τεχνητή Νοημοσύνη κάνει πως νοιάζεται: Ο «πατέρας» της AI μόλις ανακάλυψε το μητρικό ένστικτο

Πόσο εύκολο είναι να αναγνωρίσεις μια συνομιλία που έχει δημιουργηθεί από τεχνητή νοημοσύνη;

Η ανθρώπινη κρίση είναι ανθρώπινη -δηλαδή ατελής, κουρασμένη, επηρεασμένη

Παρότι μεγαλώσαμε με την ιδέα του «έντιμου, ανθρώπινου σώματος ενόρκων», η ερευνητική πραγματικότητα μάς προσγειώνει: οι περισσότεροι ένορκοι δεν κατανοούν το «πέραν πάσης εύλογης αμφιβολίας». Το πιστεύουν τόσο λιγότερο, ώστε το 80-90% βεβαιότητας που απαιτεί ο νόμος, σπάνια εμφανίζεται.

Το Psychology Today συνοψίζει μια δεκαετία μελετών:

  • Πολλοί άνθρωποι θεωρούν αρκετό το 55% για να καταδικάσουν.

  • Άλλοι τοποθετούν το όριο στο 63% ή 68%.

  • Η πλειονότητα χρησιμοποιεί έναν απλό κανόνα: «Αν τα περισσότερα στοιχεία μοιάζουν υπέρ της κατηγορίας, καταδικάζω».

Πρόκειται για μια δραματική απόκλιση από όσα προβλέπει ο νόμος. Και εδώ η τεχνητή νοημοσύνη έκανε κάτι… απαγορευτικά απλό: ακολούθησε το σωστό όριο. Δεν κουράστηκε, δεν φοβήθηκε, δεν επηρεάστηκε από το κοινωνικό status του κατηγορουμένου, δεν επηρεάστηκε από την περίσταση, δεν επηρεάστηκε από την ομάδα.

Διάβαζε. Αξιολογούσε. Εφάρμοζε τον νόμο.

Και καταδίκαζε μόνο όταν υπήρχε υψηλή βεβαιότητα ενοχής.

Στην πράξη, οι άνθρωποι επηρεάζονται από παράγοντες που δεν επιτρέπεται να επηρεάσουν

Η μελέτη δοκίμασε τέσσερις παράγοντες που δεν επιτρέπεται να αλλάζουν την απόφαση:

  • τη φυλή του κατηγορουμένου,

  • την κοινωνική του θέση,

  • τον αριθμό των καταγγελιών,

  • και τα χρόνια που πέρασαν πριν γίνει η καταγγελία.

Αν και δεν επηρεάζουν θεωρητικά το νομικό αποτέλεσμα, οι άνθρωποι έδειξαν ξεκάθαρη μεταβολή στις κρίσεις τους. Οι ΑΙ ένορκοι, πολύ λιγότερο.

Δεν είναι ότι οι ΑΙ ένορκοι είναι ηθικά καλύτεροι. Είναι ότι δεν έχουν «κοινωνικό εγκέφαλο». Δεν έχουν αντανακλαστικά προκατάληψης. Δεν έχουν κούραση. Δεν τους ενδιαφέρει πώς ακούγονται στον διπλανό. Είναι μια ενοχλητικά σταθερή λογική μονάδα.

Αν θέλαμε να είμαστε απολύτως κυνικοί, θα λέγαμε ότι η ΑΙ δεν έχει κάτι να αποδείξει. Ο άνθρωπος, ναι.

Και η ελληνική πραγματικότητα;

Η Ελλάδα δεν έχει σώματα ενόρκων όπως το αμερικανικό σύστημα, αλλά αυτό δεν μειώνει τη βαρύτητα της συζήτησης. Παρά τις διαφορές, η βασική ερώτηση είναι κοινή:
Μπορεί ο ανθρώπινος νους να αποδώσει αμερόληπτα δικαιοσύνη;

Η κοινή εμπειρία λέει όχι.

Κάθε υπόθεση μεγάλης δημοσιότητας μάς θυμίζει πόσο εύκολα προδικάζουμε, πόσο επηρεαζόμαστε από φύλο, ηλικία, εμφάνιση, επάγγελμα, κοινωνική τάξη, αφήγημα των ΜΜΕ.

Αν ανοίξει κάποτε η συζήτηση για χρήση τεχνητής νοημοσύνης σε ειδικές κατηγορίες υποθέσεων, η ελληνική κοινωνία θα πρέπει να απαντήσει σε κάτι δύσκολο:

  • Προτιμάς έναν άνθρωπο που θα σε κρίνει με ένστικτο;
  • Ή μια μηχανή που θα σε κρίνει με αλγόριθμο;

Κανένα δεν είναι ουδέτερο. Κανένα δεν είναι αγνό. Το ένα όμως είναι συνεχές. Το άλλο απρόβλεπτο.

Η δίκαιη κρίση είναι πιο σπάνια από όσο νομίζουμε

Το Psychology Today καταλήγει με μια απλή, σχεδόν ψυχρή διαπίστωση:
Οι ΑΙ ένορκοι κατάλαβαν το νόημα του νόμου καλύτερα από τους ανθρώπους.
Και το εφάρμοσαν.

Δεν ξέρουμε αν αυτό σημαίνει ότι στο μέλλον θέλουμε ψηφιακά σώματα ενόρκων. Δεν ξέρουμε καν αν θα μπορούσαμε να εμπιστευτούμε ένα σύστημα όπου η τεχνητή νοημοσύνη συμβάλλει στη λήψη αποφάσεων που αφορούν την ελευθερία ενός ανθρώπου.

Ξέρουμε όμως ότι η τεχνητή νοημοσύνη δεν κουβαλά την ανθρώπινη τάση για βιαστικά συμπεράσματα, για εύκολες καταδίκες, για φόρτιση, για προκατάληψη που δεν αναγνωρίζουμε ούτε εμείς οι ίδιοι.

Και αυτό από μόνο του είναι μια πρόκληση.
Μια πρόκληση τόσο ηθική όσο και πρακτική.

Το ερώτημα που μένει

Αν αύριο βρεθείς κατηγορούμενη χωρίς να φταις, ποιος θέλεις να σε κρίνει;
Ένας άνθρωπος σαν εσένα -με φόβους, κούραση και προκαταλήψεις;
Ή μια μηχανή που κατανοεί το γράμμα του νόμου, παγώνει το συναίσθημα και αποφασίζει με ακρίβεια;

Το Psychology Today -όχι κάποια τεχνολογική εταιρεία, όχι κάποιος ιδεολόγος της Σίλικον Βάλεϊ- υποστηρίζει κάτι συγκλονιστικά απλό:

Ίσως η μηχανή. Σοβαρά.

1764072192863-29977773-untitled.png