
Ils dénoncent les erreurs récurrentes de cette technologie, et implorent l’entreprise américaine d’attendre que des « garde-fous » soient mis en place.
« Nous demandons à Amazon d’arrêter de vendre Rekognition aux forces de l’ordre. » Le message est on ne peut plus clair. Dans une lettre ouverte publiée le 25 mars, 55 chercheurs en intelligence artificielle, issus des entreprises, des universités et des organisations les plus à la pointe du secteur, ont fait part de leur inquiétude concernant cette technologie de reconnaissance faciale, déjà décriée par le passé.
Ces chercheurs soulignent que, malgré de précédents avertissements, cette technologie demeure biaisée : son taux d’erreur est plus important pour les femmes et les personnes non blanches. « Il n’existe pas de lois ni de normes pour s’assurer que Rekognition soit utilisé d’une manière qui ne contrevienne par aux libertés publiques " (...)
Parmi les signataires, on compte des membres d’entreprises très avancées dans le domaine de l’intelligence artificielle, comme Google (et DeepMind, qui lui appartient), Facebook ou encore Microsoft. On trouve également le nom d’Anima Anandkumar, qui travaillait auparavant pour Amazon. Au sein de cette liste prestigieuse se trouve aussi Yoshua Bengio, récompensé il y a quelques jours du prestigieux prix Turing.
Amazon déjà critiqué sur la reconnaissance faciale
Ce n’est pas la première fois qu’Amazon est critiqué à cause de son programme Rekognition. En mai 2018, une trentaine d’associations américaines emmenées par l’American Civil Liberties Union lui avaient demandé de cesser de vendre cette technologie à la police américaine, considérant qu’elle lui conférait « un dangereux pouvoir de surveillance ». En janvier, 85 ONG s’étaient cette fois adressées à Amazon, mais aussi à Microsoft et à Google, pour qu’elles ne mettent pas leurs technologies de reconnaissance faciale à disposition des autorités. (...)
Amazon est resté beaucoup plus discret sur le sujet, alors que des voix se sont aussi levées en interne pour critiquer les risques de cette technologie.