`
Attention! Vous lisez actuellement un article écrit il y a au moins 9 mois. L'information pourrait ne plus être pertinente.

On a rencontré la spécialiste de l’éthique en intelligence artificielle et on est pas mal rassurées pour l’avenir

rumman chowdhury

Créer la technologie, c’est bien, mais savoir comment elle sera utilisée, c’est mieux! URelles a rencontré la Dr. Rumman Chowdhury, LA spécialiste de l’éthique en intelligence artificielle (IA), lors du forum Mutek_IMG de Montréal. Elle présentait une conférence sur le «colonialisme algorithmique». Tout une rencontre! Entrevue avec une professeure passionnée.

Émilie Vion: Pourquoi est-ce important pour vous de travailler au niveau de l’éthique de l’intelligence artificielle?
Rumman Chowdhury: C’est très important car ces technologies sont utilisées dans la vie quotidienne et en tout temps. La plupart des gens n’ont pas les connaissances requises pour comprendre ou reconnaître la logique technique de l’IA. Dans mon parcours, je trouvais que c’était important de l’utiliser pour le bien de tous et ainsi, aider les gens à comprendre l’IA.

Émilie Vion: Vous dites que le plus important est de sensibiliser les gens à l’impact de ces technologies. Comment pourrait-on accompagner les non-spécialistes à mieux comprendre l’IA?
Rumman Chowdhury: Dans le cadre d’une formation ou d’une sensibilisation, les gens n’ont pas besoin de savoir programmer. Ils doivent surtout être amenés à mieux comprendre et mesurer les effets de ces technologies dans notre quotidien. L’important est de comprendre comment et pourquoi les technologies sont mises en œuvre dans nos sociétés. Il faut également se demander quel impact créent les technologies sur les vies humaines.

Émilie Vion: Comment peut-on mieux distinguer ce qu’est une IA de ce qui n’en est pas?
Rumman Chowdhury: Le terme IA est de plus en plus galvaudé. Pour être plus précis, on pourrait dire que la vraie intelligence artificielle est ce que l’on appelle l’apprentissage profond (deep learning, en anglais), lorsqu’une intelligence artificielle sélectionne des informations dans des données en temps réel qui seront modélisées comme un cerveau humain par des analystes, afin de proposer un résultat d’utilisation. Il s’agit donc d’un apprentissage réel, en temps réel. D’un autre côté, nous avons l’apprentissage automatique (machine learning en anglais) qui est différent de l’apprentissage profond. Il s’agit d’une explication théorique de technologues. D’un point de vue académique ou social, la définition est presque anecdotique.

Émilie Vion: La notion d’impartialité est importante pour vous. De quels composants une intelligence artificielle a besoin pour être plus éthique?
Rumman Chowdhury: Pour être plus juste, il faudrait plutôt parler d’équité, de responsabilité, de transparence et de définition. Il y a deux manières de voir les choses:
1. Comment monter un algorithme de manière à présenter un résultat plus transparent et juste. L’algorithme n’existe pas dans une bulle coupée du monde, il appartient à un écosystème technique. Le simple fait de calibrer l’algorithme de la bonne manière ne suffit pas.
2. Il est aussi important de savoir comment cet algorithme sera utilisé et interprété par la suite. Même si les données sont exactes et justes, cela ne garantit pas nécessairement que le résultat de l’algorithme sera utilisé convenablement.

Émilie Vion: Cela nous amène à la question des biais en IA. Comment pourrait-on les réduire et qu’en pensez-vous, notamment en tant que fille d’immigrant?
Rumman Chowdhury: Cela se retrouve dans tout ce qui me définit, que ce soit comme fille d’immigrants, de femme queer, et de surcroît, qui évolue dans le milieu des technologies. Les biais sont bien enracinés dans notre société. Chose intéressante mais complexe, le principe de biais est compris de manière complètement différente dans les sciences des données et dans les sciences sociales. D’un point de vue purement technique, les biais sont une vision de la majorité donc quantifiable, ce qui implique qu’il y a une vérité absolue. Si on utilise les bonnes données, de la bonne manière, il ne devrait pas y avoir de biais ni de difficultés d’interprétation.
Du point de vue des sciences sociales, même si les données sont exactes, il peut y avoir des biais, au sens de partialité. Par exemple, dans un outil de sélection des candidats pour un poste en informatique, même si les données sont les plus justes possibles, le résultat sera subjectif à cause des biais sociétaux que les humains ont par rapport à la place des femmes en technologie.

Il ne faut pas penser aux biais exclusivement d’un point de vue des données, mais aussi de celui de l’utilisation du résultat par les humains.

Émilie Vion: Est-ce qu’une des solutions serait d’avoir plus de diversité en programmation et développement?
Rumman Chowdhury: Il y a un exemple que j’aime bien donner par rapport à cette question. Je suis récemment allée en Norvège pendant l’hiver, et je me suis aperçue qu’à une certaine température, mon téléphone intelligent s’éteignait. La seule raison pour laquelle le fabricant n’a pas pensé à cet aspect est parce qu’il a développé l’outil en Californie et qu’il n’a pas tenu compte de cette problématique. Une équipe en mesure de développer une montre intelligente capable de reconnaître le type de brasse effectuée dans une piscine peut assurément rendre un cellulaire résistant au froid. En raison d’un manque de diversité géographique, cet élément n’a pas été considéré. Donc oui, toute forme de diversité apporte une solution.

Émilie Vion: Vous êtes devenue scientifique en traitement de données en 2014, avant que cela devienne l’emploi le plus en vue du milieu technologique. Qu’est-ce qui vous a attiré dans cette spécialité?
Rumman Chowdhury: On m’a souvent dit que j’avais un parcours unique avec un pedigree hors du commun. On manquait également de spécialistes en sciences sociales. J’ai d’abord compris et imaginé le poste comme un emploi en sciences sociales où il faut utiliser et analyser des données concernant les humains et les représenter dans des modèles statistiques. Il ne s’agit pas seulement d’un poste de programmeur.se. Les programmeurs.ses ne sont pas formé.es à comprendre massivement des données humaines et localisées. Il faut comprendre que l’utilisation de l’IA va au-delà du code pur. Du point de vue du développeur.se, qui sera entièrement concentré.e sur l’écriture du code, l’interprétation externe par les utilisateurs ne sera pas anticipée. Par exemple, dans un outil aidant à anticiper les taux de criminalité, même si les données sont justes et que l’algorithme a été développé de la meilleure manière possible, le résultat qui en ressortira sera fortement basé sur des aspects physiques. Ce qui est biaisé et injuste. Il est donc important de porter la réflexion au-delà du processus de développement et de programmation, et l’orienter davantage sur le processus de résolution de problèmes et l’utilisation qui en sera faite.

Poster un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.