`
Attention! Vous lisez actuellement un article écrit il y a au moins 9 mois. L'information pourrait ne plus être pertinente.

L’intelligence artificielle renforce-t-elle le sexisme?

Lucia Flores Echaiz

Alors qu’elle est supposée être neutre et objective, l’intelligence artificielle (IA) semble dans certains cas renforcer les inégalités et la discrimination. Lucia Flores Echaiz s’est penchée sur la question dans le cadre de sa maîtrise en droit et société à l’UQAM et de son stage à l’UNESCO.

Alors que l’IA est supposée être neutre et objective, plusieurs situations montrent au contraire qu’elle peut creuser les inégalités et être discriminante, via les biais qu’il s’y insèrent. «Nous parlons ici de discrimination algorithmique, souligne Lucia. Dans le cadre de ma maîtrise, je me suis demandée comment le droit peut répondre à ces nouveaux enjeux, et comment il peut nous protéger de ces nouvelles formes de discrimination. Il y a au Canada, comme ailleurs, un véritable vide dans la littérature juridique sur cette question».

Lucia a mis en application ses travaux de recherche à l’occasion d’un stage de cinq mois effectué en 2019 au sein de l’UNESCO, à Paris. Elle a collaboré à l’élaboration d’un rapport baptisé Piloter l’IA et les TIC avancées pour les sociétés du savoir. Elle y a écrit un chapitre démontrant les biais de l’intelligence artificielle dans l’égalité des sexes.

«Depuis toujours, je porte un grand intérêt aux droits et libertés de la personne ou encore à l’égalité. Pour mes recherches, je me suis tout de suite intéressée à l’influence et aux défauts de l’intelligence artificielle, ainsi qu’aux discriminations qui peuvent découler de son utilisation.» – Lucia Flores Echaiz

Des CV féminins moins bien notés
Parmi les exemples de biais constatés, Lucia reprend dans le rapport de l’UNESCO celui du logiciel de tri des CV d’Amazon. Développé par la firme américaine et utilisé entre 2014 et 2017, ce logiciel était supposé faciliter la tâche des ressources humaines pour classer les milliers de candidatures envoyées au groupe. Mais, au bout d’un moment, un problème a été constaté.Lucia explique: «Ce logiciel donnait une note aux CV, allant de une à cinq étoiles Or, Amazon a remarqué que cet outil notait mieux les candidatures masculines que féminines, notamment dans les métiers techniques. Lorsqu’un CV contenait des termes liés au féminisme, à la défense des droits des femmes, ou même simplement si la candidate était une femme, alors ce profil avait automatiquement une note plus faible.» L’origine de ce problème vient du fait que l’IA du logiciel classait les CV à partir d’une base de données de candidatures retenues et rejetées par Amazon entre 2004 et 2014… où les CV masculins étaient déjà les mieux notés. «L’algorithme a lui-même appris à discriminer en reproduisant les erreurs du passé», note Lucia.

De meilleures offres d’emploi pour les hommes
L’étudiante souligne encore d’autres exemples de biais, notamment dans les annonces ciblées. «La personnalisation du contenu en ligne s’est beaucoup développée, certaines entreprises enregistrent nos données pour mieux cibler leurs annonces. C’est à travers ces mécanismes-là que les hommes peuvent potentiellement recevoir des offres d’emploi plus intéressantes et mieux payées que les femmes». Lucia souligne toutefois que ce ciblage peut être volontaire de la part des entreprises, certains réglages pouvant être appliqués pour mettre en avant l’offre auprès d’une certaine tranche d’âge, des hommes ou des femmes.

«La question de la discrimination algorithmique mérite beaucoup d’attention, prévient Lucia. Au-delà de l’aspect technique, cette forme de discrimination est un problème juridique. Nous devons apprendre à faire face à cet enjeu, à aborder la question sous un aspect sociologique et philosophique».

Elle insiste également sur le fait que l’intelligence artificielle aura toujours besoin d’un accompagnement humain, de la conception des bases de données à l’interprétation de ses choix, en passant par ses méthodes d’apprentissage automatique. «Le rapport de l’UNESCO suggère entre autres aux etats de s’assurer que leur législation protègent leurs citoyens des discriminations algorithmiques, ainsi qu’aux entreprises de penser à ces discriminations dans le développement et l’évaluation de leurs logiciels», conclut Lucia.

Poster un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.