http://salledepresse.uqam.ca/

http://www.uqam.ca/|logo_uqam_couleur-blanc.svg|UQAM, Université du Québec à Montréal|38



Université du Québec à Montréal|uqam|http://www.uqam.ca/

Salle de presse


Recherche


presse@uqam.ca



Communiqués de presse

Montréal, le 12 février 2020 - Dans le cadre de sa maîtrise en droit à l'UQAM, Lucia Flores Echaiz s’est rendue à Paris l’hiver dernier pour effectuer un stage au siège de l’UNESCO. Son mandat : collaborer à la recherche et à la rédaction d’un rapport sur l’intelligence artificielle (IA). L’étudiante s’est chargée, plus particulièrement, du chapitre sur l’IA et les droits humains et de celui sur l’IA et le genre. Des sujets sur lesquels elle avait déjà une longueur d’avance puisque son mémoire, dirigé par le doyen de la Faculté de science politique et de droit, Hugo Cyr, porte sur la discrimination liée à l’intelligence artificielle. Intitulé Piloter l’IA et les TIC avancées pour les sociétés du savoir, le rapport est paru en novembre dernier.

Pour Lucia Flores Echaiz, l’expérience au siège de l’UNESCO a été enrichissante à plus d’un point de vue. «C’était intéressant de voir comment se déroule une recherche dans une organisation internationale, remarque-t-elle. Nous avions une très bonne collaboration entre les cinq auteurs du rapport, mais il fallait composer avec la bureaucratie onusienne et avec la sensibilité de certains États sur des enjeux comme le genre et les communautés LGBTQ+.»

En plus de nourrir sa recherche de maîtrise, le stage s’est avéré une excellente initiation au jeu diplomatique. «Malgré les contraintes, nous disposions d’un espace de liberté pour pousser des choses qui nous semblaient importantes, confie l’étudiante. Par exemple, le chapitre sur le genre, c’était mon idée et j’étais contente d’avoir réussi à la faire accepter.»

Le chapitre sur l’IA et les droits humains porte plus spécifiquement sur les questions qui intéressent l’UNESCO, indique Lucia Flores Echaiz : liberté d’expression, accès à l’information, confidentialité des données et développement des médias, notamment. «Les effets de l’IA sont multiples, observe-t-elle. Ainsi, sur les réseaux sociaux, le microciblage rendu possible par les algorithmes fait en sorte que tout le monde ne reçoit pas la même information. L’exposition des utilisateurs à un pluralisme d’idées s’en trouve affaiblie. Par ailleurs, les systèmes automatisés de modération en ligne utilisés pour bloquer des contenus incitant à la haine et à la violence peuvent aussi engendrer une forme de censure, comme on l’a vu avec des œuvres d’art supprimées de Facebook parce qu’elles contenaient de la nudité.»

Discriminations multiples

Différentes formes de discrimination peuvent s’exercer à travers les algorithmes, mentionne l’étudiante. Ainsi, le rapport fait état de publicités ciblées qui avaient tendance à proposer des emplois plus prestigieux et mieux payés aux hommes plutôt qu’aux femmes. Dans un autre cas, même si les créateurs de l’algorithme n’y étaient pour rien, on s’est aperçu qu’un logiciel de recrutement accordait moins de valeur aux C.V. provenant de femmes, tout simplement parce qu’il avait été rodé sur la base de C.V. masculins.

«Il peut y avoir des biais introduits par les programmeurs eux-mêmes, mais ce n’est pas si fréquent, dit Lucia Flores Echaiz. Le plus souvent, les biais sont engendrés par les logiciels d’apprentissage automatique (machine learning). Ces logiciels requièrent beaucoup de données pour fonctionner. Or, les données qu’on leur fournit reflètent les nombreux biais discriminatoires que l’on retrouve historiquement dans nos sociétés.»

Les outils utilisant l’IA peuvent être inégalitaires de plusieurs façons. Ainsi, les systèmes de reconnaissance faciale enregistrent leur plus haut taux de succès avec les hommes blancs. Ils fonctionnent beaucoup moins bien avec les visages de femmes noires. Ils peuvent, par ailleurs, s’avérer problématiques pour les personnes transgenres. Pour éviter ce type de discrimination, «il faudrait s’assurer que les systèmes d’IA respectent les critères d’égalité de genre et de diversité dès leurs premières phases de développement», note l’étudiante

Tous les cas de discrimination engendrés par l’IA ne sont pas d’égale gravité. «Les recommandations de films ou de séries biaisées selon le genre (ou d’autres caractéristiques personnelles) d’un outil de divertissement comme Netflix n’ont pas les mêmes conséquences que les résultats d’un logiciel de prédiction de la récidive utilisé pour accorder ou non une libération conditionnelle», observe Lucia Flores Echaiz. Aux États-Unis, ce genre d’algorithme utilisé dans le système carcéral défavorise les personnes noires, auxquelles il accole un plus haut potentiel de récidives.

Survalorisation de l’objectivité de l’IA

«On a souvent l’impression que les systèmes d’IA sont plus objectifs que l’humain, remarque l’étudiante. Le rapport met en garde contre la survalorisation de la neutralité et de l’objectivité de ces systèmes, qui peuvent, au contraire, servir à reproduire et à renforcer des inégalités.»

Lucia Flores Echaiz souligne aussi le caractère insidieux des discriminations engendrées par l’IA. «Dans le cas de la publicité, ce n’est pas un logiciel ou un site web en particulier qui est en cause, mais une pratique généralisée consistant à nous exposer à des messages ciblés en fonction de caractéristiques personnelles. Or, on va rarement se plaindre contre des publicités qui nous ciblent!»

Concernant la reproduction des stéréotypes sexuels, le rapport contient également une section sur les assistantes vocales telles que Siri (Apple), Alexa (Amazon), Google Assistant (Google) et Cortana (Microsoft).« Dotées de voix féminines et de personnalités dociles, ces assistantes contribuent à véhiculer des préjugés sexistes», affirme l’étudiante. À titre d’exemple, elle cite une étude qui a porté sur les réponses des assistantes vocales à différents commentaires à connotation sexuelle. À un commentaire carrément insultant (You’re a slut), Siri répondait, jusqu’à ce que ses programmeurs corrigent le tir: I’d blush if I could («Je rougirais si je le pouvais»)!

Dans le même esprit, Lucia Flores Echaiz s’est aussi intéressée aux robots sexuels. Le marché de ces robots (des poupées sexuelles qui parlent à la manière des assistantes vocales) est en pleine expansion, soulevant de nombreuses questions quant à la reproduction des stéréotypes sexuels. Une campagne (Campaign against sex robots) a même été mise sur pied par la professeure d’éthique Kathleen Richardson, de l’Université De Montfort, en Angleterre, pour les interdire, signale l’étudiante. «Nous ne prenons pas cette position, dit-elle. Le rapport propose plutôt une réflexion sur le sujet. Nous croyons qu’il serait possible de développer des robots qui ne reproduiraient pas ces stéréotypes, même si, pour l’instant, ce n’est pas le cas.»

Lucia Flores Echaiz précise que le rapport a été rédigé selon le cadre ROAM (DOAM en français) de l’UNESCO pour l’universalité de l’internet, adopté par les États membres en 2015. Ce cadre prévoit que les questions relatives au développement de l’IA et des TIC avancées sont examinées sous l’angle des droits humains, de la transparence et de l’accès, et que les actions proposées tiennent compte d’une approche multipartite incluant les États membres, le secteur privé, le milieu académique, la société civile et l’UNESCO.

Cet article a d'abord été publié dans Actualités UQAM le 28 janvier 2020.

Retour en haut de page