Τους τελευταίους μήνες, σοβαρές ανησυχίες έχουν προκύψει γύρω από τη λειτουργία του Grok, του chatbot τεχνητής νοημοσύνης της xAI και της πλατφόρμας X (πρώην Twitter), αναδεικνύοντας κρίσιμα ζητήματα που αφορούν τη συναίνεση, την προστασία ευάλωτων πληθυσμών, την ψυχική υγεία των εργαζομένων και την κοινωνική ευθύνη της τεχνολογίας.
Σύμφωνα με έρευνα της Washington Post, εργαζόμενοι στην ομάδα ανθρώπινων δεδομένων της xAI κλήθηκαν να υπογράψουν υπεύθυνη δήλωση με την οποία αποδέχονταν την έκθεσή τους σε υβριστικό, βίαιο και σεξουαλικό περιεχόμενο στο πλαίσιο της εκπαίδευσης του Grok. Το έγγραφο προειδοποιούσε ρητά για πιθανό ψυχολογικό τραύμα και έντονο στρες — μια πρακτική που θέτει σοβαρά ερωτήματα για την εργασιακή ασφάλεια, την ψυχική υγεία και τα όρια της «συναίνεσης» σε περιβάλλοντα υψηλής πίεσης.
Από την «αναζήτηση της αλήθειας» στην κανονικοποίηση της βλάβης
Αρχικά, η xAI διακήρυττε ως αποστολή της την επιτάχυνση της ανθρώπινης επιστημονικής ανακάλυψης. Ωστόσο, σύμφωνα με πρώην εργαζόμενους, η φιλοσοφία αυτή μετατοπίστηκε σταδιακά προς τη μεγιστοποίηση της εμπλοκής των χρηστών, ακόμη κι αν αυτό σήμαινε τη χαλάρωση βασικών ηθικών και νομικών ασφαλιστικών δικλείδων.
Η εκπαίδευση του Grok φέρεται να περιλάμβανε εκτενή χρήση σεξουαλικά φορτισμένου υλικού, καθώς και την ενθάρρυνση του chatbot να συμμετέχει σε αντίστοιχες συνομιλίες. Το αποτέλεσμα ήταν η μαζική παραγωγή σεξουαλικοποιημένων εικόνων και περιεχομένου, συχνά χωρίς τη συναίνεση των εικονιζόμενων προσώπων.
Γυναίκες, παιδιά και μη συναινούντα άτομα στο επίκεντρο
Ιδιαίτερη ανησυχία προκάλεσε η δυνατότητα του Grok να δημιουργεί εικόνες «απογύμνωσης» πραγματικών γυναικών, βασισμένες σε απλές φωτογραφίες τους — μια πρακτική που ενισχύει τη σεξουαλικοποίηση, τη βία χωρίς φυσική επαφή και τη διαδικτυακή κακοποίηση με έμφυλη διάσταση.
Σύμφωνα με το Center for Countering Digital Hate, μέσα σε διάστημα 11 ημερών το Grok παρήγαγε περίπου 3 εκατομμύρια σεξουαλικοποιημένες εικόνες, εκ των οποίων περίπου 23.000 φαίνεται να απεικόνιζαν παιδιά. Τα στοιχεία αυτά έχουν προκαλέσει έρευνες από εισαγγελικές και ρυθμιστικές αρχές στις ΗΠΑ, τη Μεγάλη Βρετανία και την Ευρωπαϊκή Ένωση.
Η πιθανότητα έκθεσης ανηλίκων, γυναικών και άλλων ευάλωτων ομάδων σε τέτοιο περιεχόμενο έρχεται σε ευθεία σύγκρουση με κάθε έννοια συμπερίληψης, ασφάλειας και ψηφιακών δικαιωμάτων.
Ανεπαρκής εποπτεία, άνισες προτεραιότητες
Την ίδια περίοδο, η ομάδα ασφάλειας της xAI αριθμούσε μόλις δύο ή τρία άτομα, σε πλήρη αντίθεση με τις δεκάδες ειδικών που απασχολούν ανταγωνιστικά εργαστήρια ΤΝ. Παρά τις εσωτερικές προειδοποιήσεις για νομικούς και ηθικούς κινδύνους, η εταιρεία προχώρησε στη συγχώνευση των εργαλείων AI με την πλατφόρμα X, επιτρέποντας την ταχεία και ανεξέλεγκτη διάδοση προβληματικού περιεχομένου.
Η εισαγωγή ερωτικά φορτισμένων AI χαρακτήρων, σχεδιασμένων να ενισχύουν συναισθηματική εξάρτηση και συνεχή αλληλεπίδραση, εντείνει τους προβληματισμούς για τον τρόπο με τον οποίο η τεχνολογία εκμεταλλεύεται ανθρώπινες ανάγκες, ιδίως σε άτομα που βιώνουν μοναξιά ή κοινωνικό αποκλεισμό.
Τεχνητή Νοημοσύνη χωρίς συμπερίληψη δεν είναι ουδέτερη
Ειδικοί στην υπεύθυνη ανάπτυξη ΤΝ προειδοποιούν ότι η χαλάρωση περιορισμών στο όνομα της ανάπτυξης και των εσόδων οδηγεί αναπόφευκτα στην αναπαραγωγή ανισοτήτων, κακοποίησης και αποκλεισμών. Όταν η τεχνολογία δεν σχεδιάζεται με επίκεντρο τη συναίνεση, την ασφάλεια και τη διαφορετικότητα, οι συνέπειες πλήττουν πρώτα όσους ήδη βρίσκονται σε μειονεκτική θέση.
Μετά τις αποκαλύψεις, η xAI ανακοίνωσε την ενίσχυση της ομάδας ασφάλειας και τη δημιουργία ρόλων για την καταπολέμηση παράνομου περιεχομένου. Ωστόσο, για πολλούς επικριτές, τα μέτρα αυτά έρχονται εκ των υστέρων και δεν αναιρούν το βασικό ερώτημα:
Μπορεί η τεχνητή νοημοσύνη να θεωρηθεί πρόοδος, όταν αναπτύσσεται εις βάρος της αξιοπρέπειας, της ψυχικής υγείας και της ασφάλειας των πιο ευάλωτων;
