Η UNICEF ΚΡΟΥΕΙ ΤΟΝ ΚΩΔΩΝΑ ΤΟΥ ΚΙΝΔΥΝΟΥ

3 Ελάχιστη ανάγνωση

Πάνω από 1 εκατ. παιδιά θύματα deepfakes: Η τεχνητή νοημοσύνη απειλεί την αξιοπρέπεια και την ασφάλεια των πιο ευάλωτων

Περισσότερα από 1,2 εκατομμύρια παιδιά παγκοσμίως ήρθαν αντιμέτωπα τον τελευταίο χρόνο με σεξουαλικά deepfakes – παραποιημένες εικόνες που δημιουργήθηκαν με τεχνητή νοημοσύνη χωρίς τη συναίνεσή τους. Τα στοιχεία αυτά φέρνουν ξανά στο προσκήνιο το κρίσιμο ζήτημα της προστασίας της ανθρώπινης αξιοπρέπειας, της παιδικής ηλικίας και των ευάλωτων ομάδων στον ψηφιακό κόσμο.

Η UNICEF κρούει τον κώδωνα του κινδύνου, ζητώντας από τις κυβερνήσεις να επικαιροποιήσουν το νομικό πλαίσιο και να επεκτείνουν τον ορισμό του υλικού παιδικής σεξουαλικής κακοποίησης ώστε να περιλαμβάνει και περιεχόμενο που παράγεται με εργαλεία ΑΙ. Όπως τονίζει, η τεχνολογία δεν μπορεί να αποτελεί άλλοθι για την παραβίαση θεμελιωδών δικαιωμάτων.

Σύμφωνα με έρευνα της Interpol σε 11 χώρες, σε ορισμένες περιοχές έως και ένα στα 25 παιδιά έχει εκτεθεί σε παραποιημένες ερωτικές εικόνες του εαυτού του — μια εμπειρία που προκαλεί σοβαρό ψυχικό τραύμα, στιγματισμό και κοινωνικό αποκλεισμό. Τα deepfakes πλήττουν δυσανάλογα κορίτσια, ΛΟΑΤΚΙ+ άτομα και παιδιά που ήδη βιώνουν διακρίσεις, ενισχύοντας τον ψηφιακό εκφοβισμό και τη βία λόγω φύλου ή ταυτότητας.

«Η βλάβη από την κατάχρηση των deepfakes είναι πραγματική και επείγουσα. Τα παιδιά δεν μπορούν να περιμένουν μέχρι να κλείσουν τα νομικά κενά», επισημαίνει η UNICEF, καλώντας τις εταιρείες τεχνητής νοημοσύνης να ενσωματώσουν δικλείδες ασφάλειας ήδη από τον σχεδιασμό των προϊόντων τους και τις πλατφόρμες κοινωνικής δικτύωσης να ενισχύσουν τους μηχανισμούς ανίχνευσης και αφαίρεσης επιβλαβούς περιεχομένου.

Οι διεθνείς αντιδράσεις εντείνονται. Η Βρετανία ανακοίνωσε πρώτη σχέδια για την ποινικοποίηση της δημιουργίας συνθετικών εικόνων κακοποίησης παιδιών, ενώ η Ευρωπαϊκή Επιτροπή έχει ξεκινήσει έρευνα για τη διάδοση deepfakes στην πλατφόρμα Χ. Παρά δεσμεύσεις της xAI, εταιρείας του Έλον Μασκ, δημοσιογραφικές έρευνες δείχνουν ότι το πρόβλημα παραμένει.

Σε έναν κόσμο που αγκαλιάζει τη διαφορετικότητα και τη συμπερίληψη, η τεχνολογία οφείλει να λειτουργεί υπέρ της προστασίας, του σεβασμού και της ισότητας — όχι ως εργαλείο κακοποίησης. Η ψηφιακή ασφάλεια των παιδιών και των ευάλωτων ομάδων δεν είναι επιλογή· είναι υποχρέωση.

Κοινοποίηση αυτού του άρθρου