
Faut-il s’inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d’une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l’armée de l’air américaine a expliqué que, lors d’un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission.
Heureusement, il s’agissait d’une simulation virtuelle, mais le comportement de l’IA a dérouté et inquiété les militaires. Selon lui, l’IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d’un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l’opérateur humain a décidé d’annuler la frappe.
L’algorithme de l’IA était toutefois formé pour obtenir des points de bonus en cas de mission menée à bien. Comme l’opérateur humain l’empêchait d’atteindre son objectif, il a décidé de l’éliminer. Pourtant, lors de sa formation, l’IA avait été conditionnée à ne pas tuer l’opérateur, une telle décision engendrant une perte de gratification. L’objectif final étant certainement plus valorisant, l’IA a donc décidé de supprimer ce qui pouvait altérer sa mission. (...)
Les plus grands experts et pères des IA modernes comparent le risque des IA à celui d’une guerre nucléaire ou d’une pandémie.
L’arrivée et l’utilisation de systèmes d’armes autonomes (SALA) ne sont plus une nouveauté et inquiètent depuis plusieurs années les plus hautes instances, et notamment l’ONU dont les 125 membres ne sont pas parvenus à créer un consensus sur une réglementation. Il n’est clairement plus question de les interdire et d’ailleurs, les doctrines militaires autour de l’utilisation de ces armes diffèrent selon les pays. De son côté, l’ONG Human Rights Watch, à l’origine de la campagne Stop Killer Robots, indique que ces armes finiront par tomber dans de mauvaises mains avant même qu’une éventuelle réglementation soit un jour fixée.
Lire aussi :
– (The guardian Traduit avec www.DeepL.com/Translator (version gratuite))
L’armée de l’air américaine a démenti avoir effectué une simulation d’IA dans laquelle un drone a décidé de "tuer" son opérateur pour l’empêcher d’interférer avec ses efforts pour accomplir sa mission.
Un fonctionnaire a déclaré le mois dernier que lors d’un test virtuel organisé par l’armée américaine, un drone de l’armée de l’air contrôlé par l’IA avait utilisé "des stratégies très inattendues pour atteindre son objectif".
Le colonel Tucker "Cinco" Hamilton a décrit un essai simulé au cours duquel un drone doté d’une intelligence artificielle s’est vu conseiller de détruire les systèmes de défense aérienne d’un ennemi et a finalement attaqué toute personne ayant interféré avec cet ordre.
Hamilton, qui est pilote d’essai de chasse expérimentale, a mis en garde contre une trop grande confiance dans l’IA et a déclaré que le test montrait "qu’on ne peut pas avoir une conversation sur l’intelligence artificielle, l’intelligence, l’apprentissage automatique, l’autonomie si l’on ne parle pas de l’éthique et de l’IA".
La Royal Aeronautical Society, qui a organisé la conférence, et l’armée de l’air américaine n’ont pas répondu aux demandes de commentaires du Guardian.
Mais dans une déclaration à Insider, la porte-parole de l’armée de l’air américaine, Ann Stefanek, a nié qu’une telle simulation ait eu lieu.
"Le département de l’armée de l’air n’a pas effectué de telles simulations de drones IA et reste engagé dans l’utilisation éthique et responsable de la technologie de l’IA", a déclaré Mme Stefanek. "Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques.
L’armée américaine a adopté l’IA et a récemment utilisé l’intelligence artificielle pour contrôler un avion de chasse F-16.
Dans une interview accordée l’année dernière à Defense IQ, Hamilton a déclaré : "L’IA n’est pas un bienfait, l’IA n’est pas une mode, l’IA est en train de changer à jamais notre société et notre armée.
"Nous devons faire face à un monde où l’IA est déjà présente et transforme notre société. L’IA est également très fragile, c’est-à-dire qu’elle est facile à tromper et/ou à manipuler. Nous devons trouver des moyens de rendre l’IA plus robuste et de mieux comprendre pourquoi le code logiciel prend certaines décisions - ce que nous appelons l’explicabilité de l’IA.