,

Coded bias : quand l’intelligence artificielle prend les devants

Avatar de Webmaster de Topolitique

Dans le reportage Coded Bias, réalisé par Shalini Kantayya et diffusé lors de la 19e édition du FIFDH en mars dernier, le voile posé sur le fonctionnement des algorithmes est levé. Plus précisément, on y apprend que les algorithmes à l’œuvre dans la reconnaissance faciale s’appuient sur une base de données regroupant une majorité d’hommes blancs, ce qui rend plus difficile la détection de visages féminins ou racisés.

Selon l’autrice Cathy O’Niel, les algorithmes se caractérisent par l’ « utilisation de données passées servant à faire des prédictions futures » [1], autrement dit, les informations se recyclent dans la boucle de l’algorithme [2]. Les biais sociaux sont alors incorporés et reconduits par la technologie que nous utilisons au quotidien. Mais quelles en sont exactement les conséquences ?

Bande annonce du reportage Coded Bias réalisé par Shalini Kantayya

Si la technologie des algorithmes constitue un outil très utile pour les entreprises commerciales, Coded Bias montre que celle-ci reste mal maîtrisée. Le cas d’Amazon illustre bien ce manque d’informations et de contrôle sur l’utilisation des algorithmes : en 2014, l’entreprise s’est servie de l’intelligence artificielle dans le but d’automatiser son processus de recrutement, ce qui s’est avéré être un échec. Pourquoi ? Bien qu’involontairement, l’algorithme utilisé était sexiste envers les femmes.

Les candidatures qui contenaient des termes renvoyant au genre féminin, tels que « Capitaine du club d’échec féminin » étaient moins bien notées par le programme informatique. Comme les femmes sont rares dans les métiers de la technologie, l’algorithme d’Amazon était alimenté majoritairement de CV masculins. Mais le plus surprenant reste que l’ordinateur ait appris lui-même à favoriser les candidatures masculines, alors que l’objectif initial était de classer les candidatures selon les compétences, indépendamment du genre du candidat.

Ce manque de contrôle s’est aussi fait remarquer chez Apple, dont le système de reconnaissance faciale trahissait une base de données centrée sur les Caucasiens. Une utilisatrice asiatique a remarqué que d’autres personnes d’origine asiatique avaient accès à son iPhone par reconnaissance faciale.  Non seulement les préjugés sont incorporés par leurs créateur.rice.s à travers les bases de données, mais en plus l’intelligence artificielle utilise ces informations pour recréer certaines tendances. Ainsi, les minorités qui sont déjà pénalisées par la société subissent la double peine : réelle et virtuelle.

Les utilisateurs et utilisatrices des algorithmes choisissent librement les données qu’ils.elles entrent, ce qui peut d’ores et déjà renforcer les problèmes de société. Mais ce n’est pas tout : en donnant la parole aux oubliées de la société, Coded Bias nous rappelle rudement ce que l’on ne voit pas derrière la technologie : les enjeux sociétaux. L’intelligence artificielle reste quelque chose qui nous dépasse, à tel point que les créateur.rice.s eux.elles-mêmes ne comprennent pas l’entièreté de leurs programmes ; et les entreprises y trouvent un outil précieux sur lequel elles n’ont en réalité qu’un contrôle partiel.  Et pourtant, malgré son opacité, l’intelligence artificielle nous est imposée petit à petit et de manière incontestée.

Avatar de Webmaster de Topolitique

Laisser un commentaire