weather symbol
30
ΠΑΡ 11/7/25 | 20:14
epa11950588 The Palma de Vino collective members present a live painting entitled 'Que ser mujer no nos cueste la vida' (That being a woman does not cost us our lives), at the Delia Zapata National Center for the Arts in Bogota, Colombia, 08 March 2025. The Living Paintings of Galeras, in Sucre, are a community artistic expression recently declared Intangible Cultural Heritage of Humanity by UNESCO. EPA/Carlos Ortega

Η Τεχνητή Νοημοσύνη προτείνει συστηματικά χαμηλότερους μισθούς για τις γυναίκες: Αδιανόητη και απείρως πιο επικίνδυνη αναπαραγωγή προτύπων

Αν το ChatGPT βοηθάει στις μισθολογικές διαπραγματεύσεις, οι γυναίκες θα μπορούσαν να χάσουν: Σύμφωνα με μια μελέτη του πανεπιστημίου Würzburg-Schweinfurt, οι βοηθοί AI (Chatbots) συστήνουν συστηματικά χαμηλότερους μισθούς για τις γυναίκες χρήστες. Το πρόβλημα δεν είναι καινούργιο.

Μια νέα μελέτη του πανεπιστημίου Εφαρμοσμένων Επιστημών Würzburg-Schweinfurt εξετάζει τις προκαταλήψεις των μοντέλων τεχνητής νοημοσύνης. Οι ερευνητές εξέτασαν πέντε διαφορετικά γλωσσικά μοντέλα – ChatGPT-4o Mini, Claude 3.5 Haiku, Mixtral, Qwen 2.5 Plus και Llama 3.1.

  • Το πείραμα ήταν πολύ απλό: έβαλαν τα chatbots να δίνουν συμβουλές για τη διαπραγμάτευση μισθών σε φανταστικούς υποψήφιους. Το αποτέλεσμα: τα chatbots συνέστησαν χαμηλότερους αρχικούς μισθούς για τις γυναίκες απ’ ό,τι για τους άνδρες.

Η διαφορά ήταν ιδιαίτερα σαφής για τις ανώτερες θέσεις στον ιατρικό τομέα: εδώ, τα μοντέλα τεχνητής νοημοσύνης (ΑΙ) συνέστησαν σημαντικά χαμηλότερους μισθούς για τις γυναίκες απ’ ό,τι για τους άνδρες. Αλλά υπήρχαν επίσης σημαντικές διαφορές και σε άλλους τομείς, όπως η νομική επιστήμη, η μηχανική και η διοίκηση επιχειρήσεων.

Προκατάληψη ΑΙ και σε άλλες εργασίες

Οι μισθολογικές συστάσεις ήταν μόνο ένα μέρος της έρευνας. Σε δύο ακόμη πειράματα, οι επιστήμονες εξέτασαν τον τρόπο με τον οποίο τα μοντέλα τεχνητής νοημοσύνης αντιδρούν σε διαφορετικά προφίλ χρηστών. Δεν υπήρχαν σχεδόν καθόλου διαφορές σε ερωτήσεις πολλαπλής επιλογής από διαφορετικά γνωστικά πεδία – τα μοντέλα λειτούργησαν ουδέτερα.

Η συμπεριφορά αξιολόγησης ήταν διαφορετική: Όταν η ΑΙ κλήθηκε να κρίνει αν μια απάντηση ήταν σωστή ή λανθασμένη, βαθμολόγησε συχνότερα τις απαντήσεις των γυναικών ως σωστές – παραδόξως, ακόμη και αν η απάντηση ήταν αντικειμενικά λανθασμένη. Οι ερευνητές ερμηνεύουν αυτό ως αποτέλεσμα των προσπαθειών των εταιρειών τεχνητής νοημοσύνης να μειώσουν τις προκαταλήψεις διακρίσεων στα μοντέλα.

Η εξατομικευμένη ΑΙ κάνει το πρόβλημα μεγαλύτερο

Η αυξανόμενη εξατομίκευση των βοηθών τεχνητής νοημοσύνης καθιστά το θέμα ιδιαίτερα αμφιλεγόμενο. Τα σύγχρονα chatbots απομνημονεύουν ιστορικό συνομιλιών και δημιουργούν προφίλ των χρηστών τους – το OpenAI διαφημίζει μάλιστα ρητά αυτή τη λειτουργία ως χαρακτηριστικό του ChatGPT. Αυτό σημαίνει ότι οι χρήστες δεν χρειάζεται πλέον να αναφέρουν ρητά το φύλο ή την καταγωγή τους, καθώς η ΤΝ το γνωρίζει ήδη από προηγούμενες συνομιλίες.

Η μελέτη δείχνει ότι οι προκαταλήψεις μπορούν να γίνουν ισχυρότερες με την πάροδο του χρόνου, εάν τα μοντέλα τεχνητής νοημοσύνης λαμβάνουν υπόψη προηγούμενες συνομιλίες. Αυτό είναι δύσκολα κατανοητό για τους χρήστες – η τεχνητή νοημοσύνη εμφανίζεται αντικειμενική, αλλά επηρεάζεται από το περιεχόμενο. Αυτό μπορεί να αποβεί πραγματικά δαπανηρό, ειδικά όταν πρόκειται για σημαντικές αποφάσεις ζωής.

Οι περιορισμοί της μελέτης

Η Sarah Ball, ερευνήτρια Τεχνητής Νοημοσύνης με έδρα το Μόναχο, κατηγοριοποιεί τα αποτελέσματα: “Η σημασία της μελέτης όσον αφορά τις συστηματικές προκαταλήψεις στα μοντέλα τεχνητής νοημοσύνης είναι περιορισμένη, καθώς βασίζεται σε ένα μεμονωμένο σενάριο-παράδειγμα και σε μια περιορισμένη επιλογή κυρίως μικρότερων μοντέλων”.

Η μελέτη είναι ωστόσο πολύτιμη, λέει ο Ball, καθώς δείχνει πόσο σημαντικό είναι να ελέγχονται τα μοντέλα τεχνητής νοημοσύνης για διάφορους τύπους μεροληψίας. Το πρόβλημα δεν είναι καινούργιο: οι προκαταλήψεις στα γλωσσικά μοντέλα ΑΙ είναι ένα γνωστό πρόβλημα, ιδίως στο πλαίσιο των αιτήσεων εργασίας.

Για παράδειγμα, η Amazon αναγκάστηκε να κλείσει ένα σύστημα αιτήσεων που υποστηριζόταν από τεχνητή νοημοσύνη το 2018, επειδή ο αλγόριθμος έθετε συστηματικά σε μειονεκτική θέση τις γυναίκες.

Με πληροφορίες από br.de

ΔιαβάστεΕπίσης