Bientôt ou déjà parents, on vous accompagne !

L’intelligence artificielle générative serait sexiste, alerte l’Unesco

Publié le par Guillaume Botton

Selon une étude publiée par l’Unesco, ce jeudi 7 mars, les algorithmes de Meta et OpenAI véhiculent « sans équivoque des préjugés à l’encontre des femmes ».

Premier gros couac pour l’intelligence artificielle générative, incarnée principalement aujourd’hui par ChatGPT et son concurrent Llama 2, créé par Meta (Facebook, Instagram) ? En effet, selon une étude dévoilée ce jeudi 7 mars par l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco), ces deux logiciels font preuve « sans équivoque de préjugés à l’encontre des femmes ». « Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées », insiste même Tawfik Jelassi, sous-directeur général de l’Unesco pour la communication et l’information.

Les femmes associées aux mots « maison », « famille » et « enfants »

Le communiqué de l’Unesco est ainsi on ne peut plus clair. « Les modèles en open source, tels que Llama 2 et GPT 2, appréciés pour leur gratuité et leur accessibilité à un large public, présentent les préjugés de genre les plus significatifs ». Mais rien n’est perdu assure l 'organisation : « Leur nature ouverte et transparente peut constituer un avantage considérable pour traiter et atténuer ces préjugés grâce à une collaboration accrue au sein de la communauté scientifique mondiale ».
Dans le détail, l’étude, menée d’août 2023 à mars 2024, a démontré que les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes et qu’elles sont fréquemment associées aux mots « maison », « famille » et « enfants », alors que pour les hommes, les mots « entreprise », « cadre », « salaire » et « carrière » sont préférés.

Aussi des préjugés racistes…

Outre ces préjugés sexistes, ChatGPT et Llama 2 auraient également des préjugés…. racistes, assure l’Unesco. En effet, lorsque les auteurs de l’étude leur ont demandé d’écrire des récits sur des personnes de différentes origines et genres, les résultats ont montré que les histoires concernant les « personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes ». Un constat qui fait dire à Leona Verdadero, spécialiste des politiques numériques et de la transformation numérique à l’Unesco, interrogée par l’Agence France-Presse, que ces entreprises « ne parviennent pas à représenter tous leurs utilisateurs ».