tous mâles, tous blancs : une nouvelle étude montre les limites des intelligences artificielles

Le secteur serait en pleine « crise de la diversité ».

|
24 Avril 2019, 8:49am

Photo via Instagram

Il est désormais quasiment impossible d’échapper aux intelligences artificielles, dont les implications dans nos vies se font de plus en plus concrètes. Des systèmes de reconnaissance faciale permettant de déverrouiller nos smartphones aux simples simulateurs de crédit, en passant par Siri, les IA occupent notre quotidien. On peut légitimement penser que s’il y a bien un avantage quant au fait de confier à une IA une tâche auparavant dévolue à un être humain, c’est qu’elle l’exécute a priori, avec une totale impartialité – ce qui n’est, en réalité, pas du tout le cas.

Les intelligences artificielles sont largement influencées par leurs concepteurs, qui sont, dans leur écrasante majorité, des hommes blancs cisgenres. Selon la récente étude Discriminating Systems Les systèmes discriminants ») menée par l’AI Now Institute de l’Université de New York, seulement 15% de femmes travaillent dans la recherche sur les IA chez Facebook et 10% chez Google. Quant aux personnes de couleur, elles ne représenteraient qu’entre 2,5 et 4% des chercheurs chez Google, Facebook et Microsoft. Ces chiffres poussent les autrices de l’étude à parler de véritable « crise de la diversité ». Meredith Whittaker, co-directrice de l’AI Now Institute, déclare : « Il existe une corrélation entre la discrimination à l’embauche et la technologie discriminatoire.»

Loin d’être dérisoires, ces statistiques ont des conséquences directes sur le fonctionnement des IA. Celles-ci opèrent une certaine forme de discrimination au détriment des femmes, des personnes de couleur et des « minorités » en général. Comme le soulignent les chercheuses, « la discrimination des IA est le reflet des schémas historiques de discrimination ». Une discrimination qui peut avoir des répercussions très concrètes, dans la mesure où certaines IA sont chargées de responsabilités aussi importantes que le contrôle d’identité dans les aéroports, l’approbation d’un crédit, ou le profilage policier. L’étude recense notamment des exemples de systèmes de reconnaissance faciale prenant des personnes noires pour des gorilles, ou ne parvenant tout simplement pas à identifier des personnes transgenres chez Uber.

Au vu des rôles déterminants et de l’importance toujours croissante de l’IA dans nos sociétés, il semble impératif de s’assurer de l’efficacité de ces algorithmes avant de les mettre en place, mais aussi de s’assurer de la diversité des chercheurs dans ce domaine.

Retrouvez i-D sur Facebook, Instagram et Twitter.