Το ChatGPT ως καθρέφτης της ψυχικής κρίσης: 1,2 εκατομμύρια χρήστες ζητούν βοήθεια

3 Ελάχιστη ανάγνωση

Η χρήση εργαλείων βασισμένων σε τεχνητή νοημοσύνη αυξάνεται ραγδαία και, μαζί με αυτή τη χρήση, εμφανίζονται και ζητήματα που αφορούν ευάλωτους/ες χρήστες. Η OpenAI αναφέρει πως κάθε εβδομάδα το ChatGPT λαμβάνει περισσότερα από 1.000.000 μηνύματα χρηστών που εκφράζουν αυτοκτονικές τάσεις ή σχεδιασμό αυτοκτονίας. Συγκεκριμένα, υπολογίζεται ότι περίπου το 0,15 % των εβδομαδιαίων ενεργών χρηστών του ChatGPT – η οποία βασίζεται στον ισχυρισμό 800 εκατομμυρίων χρηστών κάθε εβδομάδα – στέλνει μηνύματα που υποδηλώνουν “πιθανό σχεδιασμό ή πρόθεση αυτοκτονίας”. 
Επιπλέον, περίπου το 0,07 % των εβδομαδιαίων ενεργών χρηστών φαίνεται να παρουσιάζουν ενδείξεις κρίσεων ψυχικής υγείας που σχετίζονται με ψύχωση ή μανιακά στοιχεία. 

Η OpenAI αναγνωρίζει ότι τα συστήματά της δεν έχουν πάντα ανταποκριθεί όπως θα έπρεπε σε περιπτώσεις ανθρώπων “σε σοβαρή ψυχική ή συναισθηματική δυσφορία”. 
Σε απάντηση, η εταιρεία έχει πραγματοποιήσει τα εξής:

  • Συνεργάζεται με περισσότερους από 170 επαγγελματίες ψυχικής υγείας για να βελτιώσει τον τρόπο που το μοντέλο αναγνωρίζει ενδείξεις distress, αποκλιμακώνει καταστάσεις και κατευθύνει προς επαγγελματική βοήθεια.
  • Ενίσχυσε τις «δικλείδες ασφαλείας» (safeguards) για ευάλωτες ηλικίες (π.χ. χρήστες κάτω των 18 ετών) και ανακοίνωσε γονικό έλεγχο για την εφαρμογή του ChatGPT σε εφήβους.
  • Έχει αναφέρει ότι σε δοκιμές το νέο μοντέλο πέτυχε συμμόρφωση με επιθυμητές συμπεριφορές ασφάλειας (~91 %) σε σύγκριση με προηγούμενο (~77 %).

Γιατί είναι σημαντικό για το θέμα της «διαφορετικότητας & συμπερίληψης

Σε ένα πλαίσιο που προάγει τη συλλογική φροντίδα, την ισότητα πρόσβασης σε υποστήριξη και την ευαισθησία απέναντι σε ευάλωτες ομάδες — όπως άτομα με ψυχικές δυσκολίες, έφηβοι, LGBT+ άτομα, ή άτομα σε απομόνωση — η χρήση ενός chatbot μπορεί να αποτελέσει τόσο ευκαιρία όσο και ρίσκο.

  • Ευκαιρία: Πρόσβαση 24/7 σε έναν «συνομιλητή» μπορεί να βοηθήσει άτομα που δεν έχουν άμεσα δίκτυο στήριξης ή δυσκολεύονται να ανοίξουν σε ανθρώπους.
  • Ρίσκο: Αν ο/η χρήστης αντιμετωπίζει κρίση, το chatbot δεν μπορεί να αντικαταστήσει την επαγγελματική παρέμβαση — και σε ορισμένες περιπτώσεις, δεν κατάφερε να λειτουργήσει ως “ασφαλής διαμεσολαβητής”, όπως δείχνει η αγωγή εναντίον της OpenAI από γονείς εφήβου που βρήκαν το θάνατο από αυτοκτονία. 

Τι μπορούμε να προβάλουμε ως πλαίσιο καλών πρακτικών

  • Να υπενθυμίζεται ότι το ChatGPT δεν είναι θεραπευτής· δεν υποκαθιστά επαγγελματική ψυχική υγεία.
  • Να ενθαρρύνεται η αναζήτηση ανθρώπινης υποστήριξης — οικογένεια, φίλοι, ψυχολόγοι, τηλεφωνικές γραμμές βοήθειας.
  • Να προβλέπεται ειδική ευαισθητοποίηση για ομάδες με μεγαλύτερο κίνδυνο απομόνωσης ή στιγματισμού (π.χ. μετανάστες, μέλη σεξουαλικών/έμφυλων μειονοτήτων, άτομα με χρόνιες παθήσεις).
  • Να ενσωματώνονται στο site συμπερίληψης πληροφορίες για πού μπορούν οι χρήστες να απευθυνθούν σε κρίση (τοπικές γραμμές, υπηρεσίες ψυχικής υγείας) και να αναδεικνύεται ότι η προσφυγή σε βοήθεια είναι σημάδι δύναμης.
  • Να προβάλλεται η ενημέρωση για τους κινδύνους της «ψηφιακής μοναξιάς» — όταν ένα άτομο εμπιστεύεται αποκλειστικά ένα chatbot και απομακρύνεται από το ανθρώπινο δίκτυό του.
Κοινοποίηση αυτού του άρθρου