`
Attention! Vous lisez actuellement un article écrit il y a au moins 9 mois. L'information pourrait ne plus être pertinente.

Alex Hanna – La diversité est-elle la clé vers un design plus éthique?

Alex Hanna

J’ai rencontré Alex lors d’une de ces soirées d’hiver enneigées à Montréal, alors que j’étais en quête d’un lieu pour me réchauffer et qu’elle était en visite dans la ville pour le travail. Comme elle aime à le dire, «contrairement à beaucoup d’autres personnes qui travaillent chez Google, elle a une formation en sociologie». Alex a été une voix active dans la lutte contre les inégalités dans et hors du domaine de l’intelligence artificielle (IA). J’étais très intéressée de connaître son point de vue sur «l’équité de la machine».

Cette conversation m’a amené à repenser mes pratiques et j’espère que ce sera également une inspiration pour les concepteurs.rices du futur.

***

Alex Hanna est une sociologue et une chercheuse qui travaille sur l’équité de l’apprentissage des machines et l’IA éthique chez Google. Avant cela, elle était professeure adjointe à l’Institut de communication, de culture, d’information et de technologie de l’Université de Toronto. Ses recherches portent sur les origines des données de formation qui forment l’infrastructure informationnelle de l’apprentissage machine, de l’intelligence artificielle et des cadres d’équité algorithmique. Elle a obtenu son doctorat en sociologie à l’université du Wisconsin-Madison.

***

Bahar Partov : L’éthique est un sujet majeur dans votre recherche, pouvez-vous nous rappeler sa définition?

Alex Hanna : C’est une grande question! De manière générale, on peut dire que l’éthique répond à la question «Comment vivre une bonne vie?». Il y a bien sûr différentes souches d’éthique qui incluent l’éthique de la vertu, l’éthique confucéenne, etc.

Bahar Partov : Les définitions de l’éthique évoluent avec le temps. Comment pouvons-nous nous assurer qu’un système d’IA éthique résiste également à l’épreuve du temps?

Alex Hanna : C’est une question intéressante. En fait, les méthodes d’IA sont assez anciennes, les réseaux de neurones existent depuis les années 50. Aujourd’hui, nous sommes arrivé.e.s à un point où nous pouvons pleinement déployer les forces de l’IA, surtout parce que nous disposons d’une quantité importante de données et d’une puissance de calcul. Mais l’inquiétude principale avec l’IA, c’est qu’elle ne soit pas capable de relever les défis éthiques. C’est un enjeu pour la technologie de façon générale, pas seulement pour l’IA.

Notre façon de concevoir la technologie doit tenir compte des considérations éthiques. Cela peut aller de la collecte de données, en passant par le transport et le design des villes. Un exemple classique est celui de Robert Moses qui a demandé à des ingénieur.e.s de construire les ponts de la Southern State Parkway très bas pour empêcher les autobus d’emprunter l’autoroute. Qui prend les autobus? Les personnes aux revenus bas, dont les personnes noir.e.s. Cela n’a rien à voir avec l’IA, mais tout à voir avec la façon dont la technologie peut affecter les personnes selon leur classe sociale et leur race.

Dans certains cas, le designer fait preuve de partialité dans la conception, mais en même temps il n’est pas capable de s’imaginer que sa technologie soit partiale. Il ne s’agit pas seulement de l’individu et de ses biais, mais aussi de savoir s’il a envisagé, en amont, toutes les conséquences d’une décision technologique.

Bahar Partov : En tant que sociologue, pensez-vous que les ingénieur.e.s et les scientifiques doivent être mieux informé.e.s sur l’éthique?

Alex Hanna : Absolument! Souvent, ils.elles vont avoir un cour d’une semaine sur l’éthique. Ce n’est pas suffisant. La plupart des gens ne pensent pas qu’ils.elles font quelque chose de mal. Ils.elles appliquent ce qu’ils.elles ont l’habitude de faire.

Nous ne sommes pas habitué.e.s à faire ce que Shanon Vallor, appelle «cultiver la vertu techno-sociale». Il s’agit de réfléchir à des pratiques de travail afin de créer de manière éthique. Par exemple, dans le processus de conception d’un service de livraison robotisé (un système qui fonctionne déjà à Berkeley), vous pensez peut-être que cela aiderait les personnes en situation de handicap, mais que se passe-t-il si le robot s’arrête à la porte d’un immeuble à plusieurs étages? Comment les robots vont-ils naviguer dans les rues? De plus, dans le cas de Berkeley, des milliers de personnes, généralement des travailleurs à faible revenu des États-Unis et de l’Inde ont été employé.e.s pour labelliser toutes les images que le robot prenait en photo. Vous contribuez donc en fait à l’appauvrissement des travailleurs.ses. Dans ce cas, la vision de la pratique, c’est-à-dire la réflexion sur un problème et son ingénierie, n’est pas alignée sur une approche techno-sociale vertueuse de résolution de problème.

La clé d’une approche techno-sociale est de consulter les personnes qui pourraient être aidées par cette technologie, par exemple en demandant comment la nouvelle approche peut avoir un impact. Cultiver de telles habitudes demande beaucoup de temps et d’efforts. Pour que davantage d’ingénieur.e.s soient formé.e.s, l’éthique doit être intégrée dans les programmes d’études, pas seulement pour une semaine ou un seul cours, mais plutôt comme point de départ d’un programme complet. De nos jours, nous voyons de plus en plus d’initiatives visant à développer ce type de programmes.

Bahar Partov : L’IA est-elle la solution à tout ?

Alex Hanna : En fait, je pense que l’IA est la solution à un ensemble très restreint de problèmes. Il existe des cas intéressants où l’IA a été utilisée pour des applications santé, comme pour poser un diagnostic. Il existe des utilisations potentielles de l’IA pour aider à atténuer certains risques environnementaux. Le problème plus large est que seules quelques entreprises disposent de suffisamment de données pour déployer l’IA à grande échelle et que cela confère à ces entreprises particulières une forme de pouvoir socio-technique.

Les interventions technologiques peuvent être appliquées à des problèmes particuliers, mais cela dépend réellement de la nature du problème et de la communauté concernée. Par exemple, je ne vois pas de cas dans lequel l’IA pourrait être utilisée pour résoudre des problèmes tels que l’inégalité des revenus ou pour réduire la discrimination raciale ou la discrimination en matière de logement. Il s’agit de décisions politiques.

Bahar Partov : Est-il possible de concevoir une machine qui fasse des évaluations plus justes qu’un humain ?

Alex Hanna : Cela dépend du contexte. Par exemple, dans le cadre d’attribution de prestations sociales, il se peut qu’un travailleur.se social.e puisse s’accorder une certaine marge de manœuvre. En ayant des humains sur place, cette dimension d’intervention permet une plus grande compassion dans la manière dont les gens interagissent avec un système social particulier. Un autre exemple en recrutement : vous savez ces algorithmes qui examinent les visages lors des entretiens et tentent d’évaluer si une personne sera bonne pour un emploi, sans que l’interviewer ne soit présent lors de la présélection? La nature même de l’interaction est déjà changée!

«En d’autres termes, il faut avancer lentement et réparer les choses, contrairement à la devise de Facebook qui consiste à avancer rapidement et à briser les choses.» – Alex Hanna

Bahar Partov : Suggérez-vous d’utiliser un cadre d’équité tout en réfléchissant à l’application de l’IA dans le bien social? Et qu’est-ce que le bien social?

Alex Hanna : Je suppose que la question est de savoir ce que vous cherchez à accomplir. Nous avons besoin de l’étendue du problème, c’est-à-dire de comprendre la cause profonde et les questions plus systématiques. Il y a une ligne de démarcation entre rendre le système plus juste et le système qui est irrévocablement brisé et nous devons réfléchir à la manière de recadrer le problème. C’est souvent le cas de la justice pénale. Pensons-nous à des systèmes d’évaluation des risques avant le procès ? Devrions-nous recourir à cette pratique ou devrions-nous dire que l’évaluation des risques avant le procès est elle-même un système problématique ? Ou encore lorsqu’on enferme des personnes dans des cages parce qu’elles ne peuvent pas payer une caution, par exemple.

C’est pourquoi on ne peut pas définir l’équité de façon simple. Un.e ingénieur.e ou un.e concepteur.rice va demander à quoi ça sert. Cela concerne, en fait, les systèmes de pouvoir ou de domination, des choses que beaucoup d’ingénieurs et de spécialistes des données ne sont pas prêt.e.s à examiner ou dans lesquelles intervenir.

Bahar Partov : À quoi ressemble l’avenir de l’éthique dans l’IA?

Alex Hanna : Je veux que les entreprises, les gouvernements et les universitaires s’approprient le sujet et qu’ils aient des personnes suffisamment formées. C’est-à-dire plus de chercheurs en sciences sociales dans les entreprises, plus de femmes, de noirs, d’autochtones, de personnes de couleur, de personnes queer et de personnes en situation de handicap, etc. Nous avons besoin d’informations issues d’expériences vécues, de formations et de conversations. J’espère qu’il y aura une législation bien informée qui sortira au Canada et aux États-Unis et qui comprendra vraiment comment ces technologies sont construites, les données qui les alimentent, le type de données nécessaires, le type de données qui doivent être restreintes et le type de politiques que nous devons mettre en place pour construire ces algorithmes.

La dernière chose que j’espère vraiment voir, c’est que les communautés concernées soient engagées dans tous ces processus, qu’elles parlent aux groupes communautaires qui sont sur le terrain et qu’elles s’engagent avec eux en tant que parties prenantes plutôt que de se précipiter et de construire des choses qui ne sont pas nécessaires. En d’autres termes, il faut avancer lentement et réparer les choses, contrairement à la devise de Facebook qui consiste à avancer rapidement et à briser les choses.

Poster un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.