Η χρήση εργαλείων βασισμένων σε τεχνητή νοημοσύνη αυξάνεται ραγδαία και, μαζί με αυτή τη χρήση, εμφανίζονται και ζητήματα που αφορούν ευάλωτους/ες χρήστες. Η OpenAI αναφέρει πως κάθε εβδομάδα το ChatGPT λαμβάνει περισσότερα από 1.000.000 μηνύματα χρηστών που εκφράζουν αυτοκτονικές τάσεις ή σχεδιασμό αυτοκτονίας. Συγκεκριμένα, υπολογίζεται ότι περίπου το 0,15 % των εβδομαδιαίων ενεργών χρηστών του ChatGPT – η οποία βασίζεται στον ισχυρισμό 800 εκατομμυρίων χρηστών κάθε εβδομάδα – στέλνει μηνύματα που υποδηλώνουν “πιθανό σχεδιασμό ή πρόθεση αυτοκτονίας”.
Επιπλέον, περίπου το 0,07 % των εβδομαδιαίων ενεργών χρηστών φαίνεται να παρουσιάζουν ενδείξεις κρίσεων ψυχικής υγείας που σχετίζονται με ψύχωση ή μανιακά στοιχεία.
Η OpenAI αναγνωρίζει ότι τα συστήματά της δεν έχουν πάντα ανταποκριθεί όπως θα έπρεπε σε περιπτώσεις ανθρώπων “σε σοβαρή ψυχική ή συναισθηματική δυσφορία”.
Σε απάντηση, η εταιρεία έχει πραγματοποιήσει τα εξής:
- Συνεργάζεται με περισσότερους από 170 επαγγελματίες ψυχικής υγείας για να βελτιώσει τον τρόπο που το μοντέλο αναγνωρίζει ενδείξεις distress, αποκλιμακώνει καταστάσεις και κατευθύνει προς επαγγελματική βοήθεια.
- Ενίσχυσε τις «δικλείδες ασφαλείας» (safeguards) για ευάλωτες ηλικίες (π.χ. χρήστες κάτω των 18 ετών) και ανακοίνωσε γονικό έλεγχο για την εφαρμογή του ChatGPT σε εφήβους.
- Έχει αναφέρει ότι σε δοκιμές το νέο μοντέλο πέτυχε συμμόρφωση με επιθυμητές συμπεριφορές ασφάλειας (~91 %) σε σύγκριση με προηγούμενο (~77 %).
Γιατί είναι σημαντικό για το θέμα της «διαφορετικότητας & συμπερίληψης
Σε ένα πλαίσιο που προάγει τη συλλογική φροντίδα, την ισότητα πρόσβασης σε υποστήριξη και την ευαισθησία απέναντι σε ευάλωτες ομάδες — όπως άτομα με ψυχικές δυσκολίες, έφηβοι, LGBT+ άτομα, ή άτομα σε απομόνωση — η χρήση ενός chatbot μπορεί να αποτελέσει τόσο ευκαιρία όσο και ρίσκο.
- Ευκαιρία: Πρόσβαση 24/7 σε έναν «συνομιλητή» μπορεί να βοηθήσει άτομα που δεν έχουν άμεσα δίκτυο στήριξης ή δυσκολεύονται να ανοίξουν σε ανθρώπους.
- Ρίσκο: Αν ο/η χρήστης αντιμετωπίζει κρίση, το chatbot δεν μπορεί να αντικαταστήσει την επαγγελματική παρέμβαση — και σε ορισμένες περιπτώσεις, δεν κατάφερε να λειτουργήσει ως “ασφαλής διαμεσολαβητής”, όπως δείχνει η αγωγή εναντίον της OpenAI από γονείς εφήβου που βρήκαν το θάνατο από αυτοκτονία.
Τι μπορούμε να προβάλουμε ως πλαίσιο καλών πρακτικών
- Να υπενθυμίζεται ότι το ChatGPT δεν είναι θεραπευτής· δεν υποκαθιστά επαγγελματική ψυχική υγεία.
- Να ενθαρρύνεται η αναζήτηση ανθρώπινης υποστήριξης — οικογένεια, φίλοι, ψυχολόγοι, τηλεφωνικές γραμμές βοήθειας.
- Να προβλέπεται ειδική ευαισθητοποίηση για ομάδες με μεγαλύτερο κίνδυνο απομόνωσης ή στιγματισμού (π.χ. μετανάστες, μέλη σεξουαλικών/έμφυλων μειονοτήτων, άτομα με χρόνιες παθήσεις).
- Να ενσωματώνονται στο site συμπερίληψης πληροφορίες για πού μπορούν οι χρήστες να απευθυνθούν σε κρίση (τοπικές γραμμές, υπηρεσίες ψυχικής υγείας) και να αναδεικνύεται ότι η προσφυγή σε βοήθεια είναι σημάδι δύναμης.
- Να προβάλλεται η ενημέρωση για τους κινδύνους της «ψηφιακής μοναξιάς» — όταν ένα άτομο εμπιστεύεται αποκλειστικά ένα chatbot και απομακρύνεται από το ανθρώπινο δίκτυό του.
