
Pour la première fois dans l’histoire, une intelligence artificielle a fait en Albanie son entrée au sein d’un gouvernement. Au-delà des questionnements sur la place des IA dans la décision publique, la nomination de Diella comme ministre chargée des marchés publics suscite des interrogations sur la féminisation quasi systématique des avatars IA. Cette pratique trompeuse qui entretient les stéréotypes de genre perpétue l’objectification des femmes et facilite la manipulation.
Le gouvernement albanais vient de créer la surprise en nommant Diella, une intelligence artificielle (IA), au poste de ministre des marchés publics. Présentée comme un atout dans la lutte contre la corruption, Diella serait chargée d’analyser les appels d’offres, repérer les conflits d’intérêts et garantir l’impartialité des décisions publiques.
Cette initiative inédite marque une étape historique. Pour la première fois, une IA entre officiellement dans un gouvernement, ici, sous les traits d’un avatar numérique féminin. Mais au-delà du coup médiatique, et des questionnements éthiques que peut soulever cette nomination – peut-on vraiment gouverner avec une IA ?, elle suscite des interrogations fondamentales sur la féminisation quasi systématique des agents IA.
Pourquoi Diella est-elle une femme artificielle ? Et quelles sont les implications de cette féminisation de l’IA ?
Diella : un cas d’école problématique (...)
Elle paraît offrir une garantie d’impartialité dans un pays où les scandales de corruption entachent la vie politique. L’Albanie est, en effet, classée 80e sur 180 pays dans l’indice de perception de la corruption, selon Transparency International. (...)
Mais cette vision occulte un problème central : les conséquences éthiques de la féminisation de l’IA sont loin d’être anodines.
Pourquoi les IA sont-elles presque toujours féminines ?
Depuis Siri (Apple), Alexa (Amazon) Cortana (Microsoft) ou encore Sophia, le premier robot ayant obtenu la nationalité saoudienne en 2017, la plupart des assistants virtuels et robots intelligents ont été dotés d’une voix, d’un visage, d’un corps ou d’un prénom féminins. Ce n’est pas un hasard. (...)
Dans une première recherche sur la question, nous avons montré que nous percevons les bots féminins comme plus chaleureux, plus dignes de confiance, voire même plus humains que leurs équivalents masculins. (...)
La féminisation des objets en IA contribue donc à humaniser ces objets.
Cette féminisation s’appuie sur des stéréotypes bien ancrés : la femme serait « naturellement » plus douce, attentive et empathique. En dotant leurs machines de ces attributs, les concepteurs compensent la froideur et l’artificialité des algorithmes et facilitent leur acceptation et leur adoption.
Quand la féminisation devient manipulation
Mais cette pratique soulève des problèmes éthiques majeurs, que j’ai développés dans un article récent publié dans les pages du Journal of Business Ethics.
Cet article compare les implications éthiques de l’usage d’attributs genrés et sexués féminins dans deux contextes. D’un côté, la publicité, où l’on recourt depuis longtemps à des représentations féminines idéalisées pour séduire les consommateurs. De l’autre, les agents IA, qui reprennent aujourd’hui ces mêmes codes. Cette mise en parallèle permet de montrer que, dans les deux cas, la féminisation engendre trois dangers majeurs : tromperie, objectification, et discrimination (...)
Cette manipulation subtile pourrait faciliter l’acceptation de décisions algorithmiques potentiellement problématiques. Une IA féminisée fait croire qu’elle est plus humaine, plus empathique, plus « digne de confiance ». Or, il ne faut pas oublier qu’il s’agit d’un programme informatique, sans émotions ni conscience – question qui commence à être discutée –, dont les décisions peuvent être biaisées voire instrumentalisées. (...)
Contrairement à la publicité qui compare métaphoriquement les femmes à des objets, l’intelligence artificielle va plus loin : elle transforme littéralement la femme en objet programmable (une machine, un algorithme). Les IA féminines réduisent les attributs féminins à de simples outils de service : des machines obéissantes, disponibles en permanence. (...)
des chercheurs relèvent la persistance de propos agressifs et à caractère sexuel dans les interactions avec ces assistantes, normalisant ainsi des comportements abusifs envers les « femmes-machines » qui risquent de se reporter sur les vraies femmes… In fine, l’humanisation et la féminisation de l’IA peut paradoxalement conduire à une déshumanisation accrue des femmes. (...)
On retrouve ici un vieux schéma : « l’Ève artificielle », façonnée pour correspondre à un idéal de docilité et de pureté. Une ministre parfaite, car obéissante et inaltérable… et qui ne remettra jamais en cause le système qui l’a créée.
L’IA au féminin, sainte dévouée ou Ève manipulatrice (...)
Si Diella venait à servir d’instrument politique pour justifier certaines décisions opaques, elle pourrait elle aussi être perçue sous ce prisme : non plus comme une garante de transparence, mais comme une figure de dissimulation.
Ces deux représentations contradictoires – la vierge sacrificielle et la séductrice perfide – continuent de structurer nos perceptions des femmes et se projettent désormais sur des artefacts technologiques, alimentant une boucle qui influence à son tour la manière dont les femmes réelles sont perçues.
Pour une IA non humanisée et non genrée
Plutôt que d’humaniser et de genrer l’IA, assumons-la comme une nouvelle espèce technologique : ni homme ni femme, ni humaine ni divine, mais un outil distinct, pensé pour compléter nos capacités et non pour les imiter. Cela suppose de lui donner une apparence et une voix non humaines, afin d’éviter toute confusion, toute tromperie et toute manipulation. (...)
L’arrivée de Diella au gouvernement albanais doit ouvrir un débat de fond : comment voulons-nous représenter l’IA ? Alors que ces technologies occupent une place croissante dans nos vies, il est urgent de réfléchir à la façon dont leur représentation façonne nos démocraties et nos relations humaines.