Πώς η AI θα μπορούσε να βοηθήσει στην εξάλειψη της διαδικτυακής βίας; Η Δρ. Λίλιαν Μπαλατσού εξηγεί

Ανθή Μιμηγιάννη

«Είναι υψίστης σημασίας η νομοθέτηση και η θεσμική ρύθμιση των κοινωνικών δικτύων που χρησιμοποιούν τεχνολογίες ΑΙ», λέει ανάμεσα σε άλλα η Δρ. Λίλιαν Μπαλατσού Ειδικός ΑΙ & Γλώσσας, Γνωσιακή Νευροεπιστήμων, Ιδρύτρια Greek Girls Code, με αφορμή τη Διεθνή Ημέρα για την Εξάλειψη της Βίας κατά των Γυναικών.

Δεν είναι λίγοι όσοι προβαίνουν σε δαιμονοποίηση της τεχνητής νοημοσύνης, και της τεχνολογίας γενικότερα, φερόμενοι ουσιαστικά σαν να είναι το «μαύρο πρόβατο» μιας κατά τα άλλα ηθικής, ανθρωπιστικής και ανθρωποκεντρικής κοινωνίας. Πράγματι, η αλόγιστη και μη ορθή της χρήση επιφυλάσσει δυνητικά και μερικούς κινδύνους ή αλλιώς «παράπλευρες απώλειες» όπως η κατάληψη θέσεων εργασίας που μέχρι πρότινος απευθύνονταν σε ανθρώπους. Αυτό όμως δεν ισχύει για όλα όσα μας περιβάλλουν;

Λαμβάνοντας υπόψη ότι όλα παίρνουν τον χαρακτήρα που αποφασίζουμε να τους δώσουμε λοιπόν, κάποιοι έχουν σκεφτεί μερικούς καθόλα απαραίτητους τρόπους χρήσης και αξιοποίησης των δυνατοτήτων που προσφέρει η τεχνητή νοημοσύνη. Και κάθε νοήμων άνθρωπος θα χαιρόταν ιδιαίτερα αν μάθαινε ότι σε αυτές τις δυνατότητες συμπεριλαμβάνεται και η αντιμετώπιση του διαδικτυακού εκφοβισμού και της κατάχρησης. Ή αλλιώς Artificial Intelligence VS Cyber Bullying. Αν λάβουμε υπόψιν ότι η πλειοψηφία των θυμάτων του διαδικτυακού εκφοβισμού είναι γυναίκες, η AI μεταμορφώνεται στην πιο ρηξικέλευθη φεμινίστρια. Μια σύγχρονη σουφραζέτα έτοιμη να γίνει «ασπίδα» ανυποψίαστων γυναικών χρηστών του διαδικτύου.

«Είναι υψίστης σημασίας η νομοθέτηση και η θεσμική ρύθμιση των κοινωνικών δικτύων που χρησιμοποιούν τεχνολογίες ΑΙ», λέει ανάμεσα σε άλλα η Δρ. Λίλιαν Μπαλατσού Ειδικός ΑΙ & Γλώσσας, Γνωσιακή Νευροεπιστήμων, Ιδρύτρια Greek Girls Code, με αφορμή τη Διεθνή Ημέρα για την Εξάλειψη της Βίας κατά των Γυναικών.

Κυρία Μπαλατσού, φαίνεται πως η Τεχνητή Νοημοσύνη (AI) φέρνει επανάσταση σε διάφορους τομείς και θα μπορούσε να κάνει το ίδιο για τον τομέα της βίας κατά των γυναικών και των κοριτσιών (VAWG). Πώς ακριβώς φέρνει αυτή την επανάσταση;

Η ενδοοικογενειακή (και μη) βία παραμένει ένα σύνθετο κοινωνικό πρόβλημα για τις γυναίκες, ανεξαρτήτως ηλικίας, κοινωνικοοικονομικής κατάστασης και εθνο-πολιτισμικού υπόβαθρου, ένα ζήτημα που επιδεινώθηκε παγκοσμίως κατά τη διάρκεια της πανδημίας. Οι νέες τεχνολογίες μπορούν να υποβοηθήσουν αποτελεσματικά την διαχείριση και τον περιορισμό των φαινομένων βίας. Αυτή η προσπάθεια απαιτεί την ανάπτυξη ενός ολοκληρωμένου κοινωνικο-τεχνικού καθεστώτος, που θα προωθεί την ασφάλεια των γυναικών, θα βασίζεται στην ανάπτυξη νέων τεχνολογιών, θα θεσπίσει κανονισμούς και θα επενδύσει στην εκπαίδευση των επαγγελματιών και των κοινωνικών δομών.

Ας αναφέρουμε 7 κομβικά σημεία αναφορικά με τον ρόλο που μπορεί να συμβάλλει η τεχνολογία:

  • Ανάλυση δεδομένων: Οι αλγόριθμοι έχουν τη δυνατότητα να αναλύσουν τεράστιες βάσεις δεδομένων και να εντοπίσουν μοτίβα και trends που σχετίζονται με τη βία κατά των γυναικών στο διαδίκτυο και τον ψηφιακό κόσμο.
  • Συστήματα έγκαιρης προειδοποίησης: ​​Οι αλγόριθμοι μπορούν επίσης να εντοπίσουν πιθανές απειλές, σεξιστική γλώσσα και γενικότερα καταχρηστικό περιεχόμενο, υποβοηθώντας την έγκαιρη παρέμβαση και υποστήριξη των θυμάτων.
  • Chatbots και εικονικοί βοηθοί: Οι εικονικοί βοηθοί μπορούν να παρέχουν εξατομικευμένη βοήθεια, ψυχολογική υποστήριξη, χρήσιμες πληροφορίες και πρόσβαση σε δομές στα θύματα βίας.
  • Πρόβλεψη κινδύνου: Οι αλγόριθμοι μπορούν να προβλέψουν την πιθανότητα αύξησης της βίας κατά των γυναικών με βάση το ιστορικό και να παροτρύνουν τις αρχές να παρέμβουν σε περιπτώσεις πιο έγκαιρα.
  • Εκπαίδευση και εκστρατείες ευαισθητοποίησης: Με τη δημιουργία περιεχομένου και το κατάλληλο microtargeting, μπορούν να ενημερωθούν πιο άμεσα γυναίκες και κορίτσια.
  • Εφαρμογές προσωπικής ασφάλειας: Η τεχνολογία έχει τη δυνατότητα να δημιουργήσει εξατομικευμένα δίκτυα βοήθειας και ασφαλείας στα θύματα βίας.
  • Wearables με δυνατότητα AI: Με κύριο χαρακτηριστικό την ασφάλεια τον θυμάτων και την προστασία τους από τους θύτες, τα Wearables μπορούν να ενισχυθούν με αλγόριθμους που δρουν πιο έγκυρα και αξιόπιστα για την ειδοποίηση αρχών ή δομών.

Είναι ο ρατσισμός και ο σεξισμός (πολωτικές και ακραίες πεποιθήσεις από μόνοι τους) μέρος της «αρχιτεκτονικής» της ίδιας της τεχνητής νοημοσύνης ή απλώς αντανακλά τον ρατσισμό και την πόλωση που είναι εγγενείς στη σύγχρονη κοινωνία και που υπάρχει στις πλατφόρμες του Διαδικτύου; Ο αντίκτυπός της θα μπορούσε να οξύνει την πόλωση και τη βία;

Η αρχιτεκτονική των αλγόριθμων σπάνια προσομοιώνει το κακό ή το καλό, το ηθικό ή το ανήθικο. Τα σύγχρονα μοντέλα είναι περισσότερο αγνώμονα ή και αγνωστικά ως προς το ρατσισμό και τον σεξισμό, αλλά τα δεδομένα με τα οποία τροφοδοτούνται αντανακλούν τις προκαταλήψεις της αναλογικής πραγματικότητας. Αυτό τα καθιστά άθελά τους προκατειλημμένα, καθώς υιοθετούν ή αναπαράγουν τα σεξιστικά ή ρατσιστικά πρότυπα που υπάρχουν γύρω μας. Αυτή η μαζική αναπαραγωγή όντως ελλοχεύει τον κίνδυνο όξυνσης των κοινωνικών ανισοτήτων. Είναι στο χέρι όλων μας να δουλεύουμε προς τη σωστή κατεύθυνση και να προσπαθούμε να εντοπίζουμε εγκαίρως τυχόν προκαταλήψεις στην τεχνολογία, αλλά και να θέτουμε τις σωστές βάσεις και κατευθυντήριες γραμμές στην έρευνα και την προιντικοποίηση των αλγορίθμων.

Η ενσωμάτωση των τεχνολογιών τεχνητής νοημοσύνης στη σφαίρα της ασφάλειας των γυναικών έχει τη δυνατότητα να αλλάξει το παιχνίδι. Ωστόσο, είναι απαραίτητο να προσεγγίσουμε αυτόν τον μετασχηματισμό με υπεύθυνη και ηθική νοοτροπία. Ενώ υπάρχουν ελπιδοφόρες λύσεις, η τεχνητή νοημοσύνη έρχεται επίσης με το δικό της σύνολο προκλήσεων και ηθικών ζητημάτων. Ποιες είναι αυτές οι προκλήσεις και σε ποια ηθικά ζητήματα θα πρέπει να επιστήσουμε την προσοχή; Για παράδειγμα, μια σημαντική ανησυχία είναι οι μεροληπτικοί αλγόριθμοι που μπορούν να διαιωνίσουν τις υπάρχουσες κοινωνικές προκαταλήψεις.

Η υπολογιστική δύναμη των αλγορίθμων έχει τη δυνατότητα να εξομαλύνει ή να υποβοηθήσει τη συστημική ανισότητα κατά των γυναικών και των κοριτσιών. Ωστόσο, όπως κάθε καινοτόμα τεχνολογία, μπορεί επίσης να χρησιμοποιηθεί με αντίθετη φορά. Η πρώτη και πιο σημαντική πρόκληση είναι η απομόνωση των κοινωνικών μειονοτήτων και η ανισομερή εκπροσώπηση στα δεδομένα και τα πρότυπα που προβάλλονται. Σκεφτείτε όλες τις προκαταλήψεις και τις ανισότητες της αναλογικής πραγματικότητας που ζούμε γεωμετρικά οξυμένες σε έναν ψηφιακό κόσμο. Μια δεύτερη σοβαρή επιπλοκή έχει να κάνει με την ασφάλεια των πνευματικών δικαιωμάτων και το δικαίωμα στην ανωνυμότητα, θέμα που πλήττει δυσανάλογα τις γυναίκες, καθώς είναι τα μεγαλύτερα θύματα και παραλήπτες της κοινωνίας της εικόνας. Μια σημαντική προέκταση της παραβίασης της ιδιωτικότητας έχει επίσης να κάνει με τη δημιουργία deepfakes, που ως στόχο έχουν να βλάψουν, να περιθωριοποιήσουν και να στιγματίσουν νέες γυναίκες και κορίτσια.

Πώς μπορεί να διασφαλιστεί ότι οι αλγόριθμοι τεχνητής νοημοσύνης είναι δίκαιοι, διαφανείς και περιεκτικοί για να αποφευχθεί η όξυνση των ανισοτήτων μεταξύ των φύλων; (Είναι σημαντικό να ληφθεί υπόψη η προσβασιμότητα των εργαλείων ασφαλείας που λειτουργούν με AI. Αν και αυτές οι τεχνολογίες παρουσιάζουν μεγάλες δυνατότητες, ενδέχεται να μην είναι πάντα εξίσου διαθέσιμες ή προσιτές σε όλες τις γυναίκες, ιδιαίτερα σε εκείνες που προέρχονται από μειονεκτούσες κοινότητες ή αγροτικές περιοχές με περιορισμένη πρόσβαση στην τεχνολογία).

Η προσβασιμότητα και ο εκδημοκρατισμός των τεχνολογιών αυτών είναι μια από τις μεγαλύτερες προκλήσεις της εποχής μας. Σίγουρα η τεχνητή νοημοσύνη δεν είναι φύσει ελιτιστική, οι ροές εργασίας και οι εμπλεκόμενοι στο χώρο αυτό όμως μπορεί να είναι, και αυτό την καθιστά θέσει ελιτιστική. Ένα από τα πιο σημαντικά κύματα επιρροής στην τεχνολογία τώρα έχει να κάνει με την ηθική και την προσβασιμότητα της Τεχνητής Νοημοσύνης. Όπως και με τους κανόνες των αλγορίθμων, έτσι και με τις βάσεις δεδομένων που υπάρχουν, είναι αναγκαίο να επενδύσουμε στη δημιουργία ολιστικών παραστάσεων και δεδομένων που εκπροσωπούν με την ίδια βαρύτητα και συχνότητα τις γυναίκες δυτικών χωρών και τις γυναίκες χωρών της Αφρικής, της Ασίας ή των Βαλκανίων και τα λοιπά κοινωνικά φύλα και σεξουαλικές ταυτότητες. Ας μη ξεχνάμε ότι η βία είναι οξυμένη σε πολλές πληθυσμιακές ομάδες πέραν των γυναικών, ζητήματα τα οποία δυστυχώς δεν βρίσκονται στην κεντρική γραμμή συζητήσεων για την καινοτομία ή την ανάπτυξη.

Η ευρεία υιοθέτηση τεχνολογιών τεχνητής νοημοσύνης εγείρει ανησυχίες και για το απόρρητο. Είναι υψίστης σημασίας να θεσπιστούν ισχυροί νόμοι και πολιτικές προστασίας δεδομένων για την προστασία των προσωπικών πληροφοριών των γυναικών από κακή χρήση και κατάχρηση;

Είναι υψίστης σημασίας, όπως και η νομοθέτηση και η θεσμική ρύθμιση των κοινωνικών δικτύων που χρησιμοποιούν τεχνολογίες ΑΙ. Η προστασία της ιδιωτικότητας και της αυτενέργειας των γυναικών και των κοινωνικών ομάδων θα πρέπει να θεσμοθετηθεί άμεσα σε παγκόσμια βάση και να αντιμετωπίζεται με την ίδια ποινική σοβαρότητα όπως το δίκαιο του ανταγωνισμού και άλλες θεσμοθετημένες παραβιάσεις στη νομοθεσία των κρατών μελών της Ευρωπαϊκής Ένωσης.

Κυρία Μπαλατσού, τι άλλο αξίζει να ειπωθεί ως highlight με αφορμή σημαντική αυτή ημέρα;

Θα κληθούμε να κάνουμε μια συλλογική άσκηση σαν είδος, αντιμέτωποι με τις αμέτρητες ευκαιρίες για ανάπτυξη και ευμάρεια που μπορούν να μας προσφέρουν οι τεχνολογικές εξελίξεις ενός τέτοιου αυτοματισμού. Είναι όμως ηθικό μας χρέος να αντιμετωπίσουμε με κριτική σκέψη και ηθική μεστότητα τις δυνατότητες της τεχνητής νοημοσύνης, για να μπορέσουμε και να ανυψωθούμε σαν κοινωνίες και πολιτισμοί, αλλά και να χρησιμοποιήσουμε τις τεχνολογίες αυτές για να διορθώσουμε τις ανισότητες και αδικίες της σύγχρονης ζωής.

Δες όλο το αφιέρωμα εδώ

© 2014-2024 Queen.gr - All rights reserved
× Αυτός ο ιστότοπος χρησιμοποιεί cookies. Με τη χρήση αυτού του ιστότοπου, αποδέχεστε τους Όρους Χρήσης