Γράφει η Ράινα Μελισσηνού, Senior Project Manager, KEAN
Η τεχνητή νοημοσύνη έχει εισβάλει για τα καλά στις διαδικασίες πρόσληψης. Από την αυτόματη ανάλυση βιογραφικών και την αξιολόγηση υποψηφίων, μέχρι την «ανάγνωση» εκφράσεων του προσώπου σε βιντεοσυνεντεύξεις, η τεχνητή νοημοσύνη υπόσχεται επανάσταση στην αγορά εργασίας.
Για τους εργοδότες, σημαίνει ταχύτητα, συνέπεια και μείωση κόστους. Όμως, κάτω από τη λάμψη της καινοτομίας, η τεχνητή νοημοσύνη μπορεί να αναπαράγει – ή και να ενισχύσει – τις προκαταλήψεις του παρελθόντος, δημιουργώντας νέα εμπόδια για όσους ήδη δυσκολεύονται να βρουν δίκαιες ευκαιρίες.
Γρηγορότερη, εξυπνότερη… και δικαιότερη;
Κανείς δεν αμφισβητεί την αποδοτικότητα της τεχνητής νοημοσύνης.
Αλγόριθμοι που αναλύουν χιλιάδες βιογραφικά σε δευτερόλεπτα και συστήματα που ταιριάζουν δεξιότητες με θέσεις εργασίας υπόσχονται μια πιο αντικειμενική διαδικασία επιλογής.
Ο ΟΟΣΑ (2022) επισημαίνει ότι η τεχνητή νοημοσύνη, όταν χρησιμοποιείται με υπευθυνότητα, μπορεί να αυξήσει την παραγωγικότητα και να βελτιώσει την αντιστοίχιση υποψηφίων και αναγκών της αγοράς.
Ωστόσο, η τεχνητή νοημοσύνη μπορεί εύκολα να μάθει τις προκαταλήψεις των ανθρώπων που τη δημιούργησαν. Το πιο χαρακτηριστικό παράδειγμα είναι η Amazon, που ανέπτυξε ένα σύστημα τεχνητής νοημοσύνης για προσλήψεις, το οποίο –εκπαιδευμένο σε δεδομένα δέκα ετών από έναν ανδροκρατούμενο κλάδο– έμαθε να υποτιμά βιογραφικά που περιείχαν τη λέξη «women» ή «γυναικείες δραστηριότητες». Το project εγκαταλείφθηκε, αλλά το μήνυμα έμεινε: η τεχνητή νοημοσύνη δεν είναι ουδέτερη. Αν τα δεδομένα είναι προκατειλημμένα, οι αποφάσεις της θα είναι το ίδιο.
Όταν η τεχνητή νοημοσύνη κρίνει το πρόσωπο και τη φωνή σου
Η τεχνητή νοημοσύνη δεν περιορίζεται στα βιογραφικά.
Πλατφόρμες συνεντεύξεων που βασίζονται στην ανάλυση προσώπου και φωνής υπόσχονταν να εντοπίζουν “ιδανικούς υποψηφίους” με βάση την «προσωπικότητα» ή τη «συναισθηματική τους νοημοσύνη». Όμως, όπως αποκάλυψαν δημοσιογραφικές έρευνες (Maurer, 2021· Keane, 2021), τέτοια εργαλεία συχνά βαθμολογούν υποψηφίους με βάση την προφορά, την έκφραση ή τον τόνο – και όχι την ικανότητά τους να κάνουν τη δουλειά.
Έτσι, άνθρωποι με νευρολογικές ή λεκτικές διαφορές, μετανάστες με ξενική προφορά ή άτομα που απλώς νιώθουν άβολα στην κάμερα, μπορεί να απορρίπτονται χωρίς κανείς να καταλάβει το γιατί. Η τεχνητή νοημοσύνη, αντί να εξαλείψει την υποκειμενικότητα, την αναπαράγει με ψηφιακή ακρίβεια.
Όταν η τεχνητή νοημοσύνη κλείνει πόρτες
Αυτές οι πρακτικές δεν είναι απλώς τεχνολογικά λάθη. Είναι νέες μορφές αποκλεισμού.
Η τεχνητή νοημοσύνη, όταν βασίζεται σε ελλιπή ή μεροληπτικά δεδομένα, μπορεί να ενισχύσει τα εμπόδια που αντιμετωπίζουν ήδη γυναίκες, άτομα με αναπηρία, μεγαλύτεροι εργαζόμενοι ή μετανάστες.
Όπως σημειώνουν οι Chen, Xu & Zhang (2023) στο Nature Human Behaviour, τα μοντέλα τεχνητής νοημοσύνης είναι λιγότερο αξιόπιστα για μειονοτικές ομάδες, οδηγώντας σε «ανισοβαρή αποτελέσματα» στις προσλήψεις. Το τίμημα είναι πραγματικό: χαμένες ευκαιρίες, μειωμένο εισόδημα και αποθάρρυνση ανθρώπων που ήδη παλεύουν για ίση μεταχείριση.
Η Ευρώπη απαντά στην πρόκληση της τεχνητής νοημοσύνης
Η Ευρωπαϊκή Ένωση αναγνωρίζει τον κίνδυνο.
Ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act), που τέθηκε σε ισχύ το 2024, χαρακτηρίζει τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για προσλήψεις και διαχείριση προσωπικού ως «υψηλού κινδύνου».
Οι επιχειρήσεις υποχρεούνται να τεκμηριώνουν τα δεδομένα εκπαίδευσης, να διασφαλίζουν ανθρώπινη εποπτεία και να δίνουν στους υποψηφίους δικαίωμα ένστασης στις αυτοματοποιημένες αποφάσεις.
Το μήνυμα είναι ξεκάθαρο: Η τεχνητή νοημοσύνη δεν μπορεί να προάγει την αποτελεσματικότητα εις βάρος της δικαιοσύνης.
Πώς μοιάζει η «ηθική» τεχνητή νοημοσύνη στις προσλήψεις
Οι ειδικοί προτείνουν συγκεκριμένα βήματα για να γίνει η τεχνητή νοημοσύνη σύμμαχος και όχι απειλή:
- Έλεγχος για προκαταλήψεις: Ανεξάρτητες αξιολογήσεις για να εντοπίζονται διακρίσεις εις βάρος ευάλωτων ομάδων.
- Απόλυτη διαφάνεια: Οι πάροχοι τεχνητής νοημοσύνης να δημοσιοποιούν τον τρόπο που εκπαιδεύονται τα συστήματα.
- Ανθρώπινη επίβλεψη: Καμία απόφαση απόρριψης χωρίς τη δυνατότητα ανθρώπινης επανεξέτασης.
- Όχι “μαύρα κουτιά”: Αποφυγή χρήσης αλγορίθμων που αξιολογούν εκφράσεις προσώπου ή συναισθήματα χωρίς επιστημονική τεκμηρίωση.
Η ηθική τεχνητή νοημοσύνη δεν είναι απλώς τεχνικό ζήτημα – είναι θέμα εμπιστοσύνης, λογοδοσίας και σεβασμού στα ανθρώπινα δικαιώματα.
Το μέλλον των προσλήψεων: ποιος θα έχει την ευκαιρία να φανεί;
Η τεχνητή νοημοσύνη μπορεί να βοηθήσει να εντοπιστούν υποψήφιοι που διαφορετικά θα περνούσαν απαρατήρητοι, να μειώσει τα ανθρώπινα λάθη και να καταστήσει τη διαδικασία πιο δίκαιη.
Όμως, χωρίς σαφή κανόνες και ηθικά όρια, κινδυνεύει να μετατραπεί σε εργαλείο αποκλεισμού.
Η επιτυχία της τεχνητής νοημοσύνης στις προσλήψεις δεν θα μετρηθεί από το πόσο γρήγορα γεμίζει θέσεις, αλλά από το ποιος έχει την ευκαιρία να φανεί.
Το πραγματικό ερώτημα δεν είναι αν οι επιχειρήσεις θα χρησιμοποιούν τεχνητή νοημοσύνη, αλλά πώς θα την χρησιμοποιούν με διαφάνεια, δικαιοσύνη και ανθρωπιά.
Στο πλαίσιο του ευρωπαϊκού έργου AI4YW – Artificial Intelligence for Youth Workers, που υλοποιείται από το ΚΕΑΝ – Κύτταρο Εναλλακτικών Αναζητήσεων, η συζήτηση για την ηθική διάσταση της τεχνητής νοημοσύνης συνεχίζεται δυναμικά… Στις 23 Ιανουαρίου, στο Σεράφειο του Δήμου Αθηναίων, θα πραγματοποιηθεί το ετήσιο συνέδριο “AI and Ethics”, που συνδιοργανώνουν το KEAN και ο Δήμος Αθηναίων, φέρνοντας στο επίκεντρο το μέλλον της τεχνητής νοημοσύνης με γνώμονα τον άνθρωπο.
Βιβλιογραφία
Chen, Z., Xu, X., & Zhang, L. (2023). Ethics and discrimination in artificial intelligence–enabled recruitment. Nature Human Behaviour, 7(3), 339–351. https://doi.org/10.1038/s41562-022-01486-3
Dastin, J. (2018, October 11). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
European Commission. (2024, August 1). AI Act enters into force. European Commission – Shaping Europe’s Digital Future. https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en Keane, J. (2021, February 5). Job screening service halts facial analysis of applicants. Wired. https://www.wired.com/story/job-screening-service-halts-facial-analysis-applicants/
Maurer, R. (2021, February 3). HireVue discontinues facial analysis screening. Society for Human Resource Management (SHRM). https://www.shrm.org/topics-tools/news/talent-acquisition/pages/hirevue-discontinues-facial-analysis-screening.aspx
Organisation for Economic Co-operation and Development. (2022). Using artificial intelligence in the workplace. OECD Publishing. https://doi.org/10.1787/840a2d9f-en
