Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
France inter
"Coded bias", sur Netflix : algorithme et discrimination
Article mis en ligne le 21 avril 2022
dernière modification le 20 avril 2022

Une étudiante chercheuse américaine découvre un jour qu’un algorithme de reconnaissance faciale ne détecte pas son visage, parce qu’elle est noire. C’est le point de départ d’une plongée dans les biais des algorithmes. A voir avec vos ados !

Le titre de ce documentaire n’est pas limpide : « Coded bias ». Littéralement, les biais du code. Mais le sujet s’éclaire grâce au sous-titre : « algorithme et discrimination ». Nous sommes au MIT, institut de recherche américain basé à Cambridge. Joy Buolamwini est étudiante chercheuse. Dans le cadre d’un projet d’étude, Joy a voulu créer un miroir qui pourrait l’inspirer le matin au réveil, lui donner de l’énergie. Un miroir qui collerait une tête de lion sur son corps à elle, ou le visage de quelqu’un qu’elle admire, comme Serena Williams. Elle a donc installé dans un miroir un logiciel de reconnaissance faciale, pour que le visage de Serena se place pile au bon endroit sur le sien. (...)

Un biais raciste dans l’algorithme

Problème : le miroir ne détectait pas le visage de Joy. La reconnaissance faciale s’est mise à fonctionner quand Joy mettait un masque blanc sur son visage (...)

Elle est remontée à la source. Comment apprend-on à une machine à détecter un visage ? En l’entrainant. En lui montrant beaucoup d’images, certaines avec un visage, d’autres non. Joy a donc examiné les données qui avaient été fournies à cette intelligence artificielle et elle a constaté que les photos utilisées montraient en majorité des hommes à la peau blanche. Le système a moins l’habitude de voir des visages comme le sien, tout simplement. Il y a un biais raciste dans l’algorithme.

C’est ainsi qu’elle a commencé à étudier les biais qui s’immiscent dans la technologie. Les gens qui conçoivent les algorithmes ont des préjugés, comme tout le monde. Et ces préjugés imprègnent la technologie. Les usages policiers de la reconnaissance faciale, qui se développent partout dans le monde, le montrent : les erreurs d’identification (une personne qu’on prend pour une autre) concernent le plus souvent des individus non blancs.

Ce documentaire donne d’autres exemples de biais dans les intelligences artificielles. (...)

Ce n’est pas l’intelligence artificielle qui est sexiste, elle se contente d’intégrer une représentation du monde.. (...)