Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Techcrunch (traduction DeepL.com/Translator)
Meredith Whittaker, présidente de Signal, estime que l’IA agentique pose de "graves" problèmes de sécurité et de protection de la vie privée.
#IA #ViePrivee #donnees #Signal
Article mis en ligne le 11 mars 2025
dernière modification le 9 mars 2025

S’exprimant sur scène lors de la conférence SXSW à Austin, au Texas, le défenseur des communications sécurisées a qualifié l’utilisation d’agents d’intelligence artificielle de "mise en boîte du cerveau" et a averti que ce nouveau paradigme informatique - où l’intelligence artificielle exécute des tâches pour le compte des utilisateurs - pose un "problème profond" en matière de protection de la vie privée et de sécurité. M. Whittaker a expliqué que les agents d’intelligence artificielle sont commercialisés comme un moyen d’ajouter de la valeur à votre vie en effectuant diverses tâches en ligne pour le compte de l’utilisateur. Par exemple, les agents d’intelligence artificielle pourraient se charger de tâches telles que la recherche de concerts, la réservation de billets, la programmation de l’événement sur votre calendrier et l’envoi d’un message à vos amis pour les informer que l’événement a été réservé,"Elle a ensuite expliqué le type d’accès dont l’agent d’intelligence artificielle aurait besoin pour effectuer ces tâches, notamment l’accès à notre navigateur web et un moyen de le piloter, ainsi que l’accès aux informations de notre carte de crédit pour payer les billets, à notre calendrier et à l’application de messagerie pour envoyer le texte à vos amis.

"Il faudrait qu’il soit capable de conduire ce [processus] à travers l’ensemble de notre système avec quelque chose qui ressemble à une autorisation root, en accédant à chacune de ces bases de données - probablement en clair, parce qu’il n’y a pas de modèle pour le faire de manière cryptée", a averti Mme Whittaker, "et si nous parlons d’un modèle d’IA suffisamment puissant qui alimente ce processus, il n’y a aucune chance que cela se produise sur l’appareil", a-t-elle poursuivi. "Il est presque certain que les données sont envoyées à un serveur en nuage où elles sont traitées et renvoyées. Il y a donc un problème profond de sécurité et de confidentialité qui hante ce battage autour des agents, et qui menace en fin de compte de briser la barrière hémato-encéphalique entre la couche application et la couche système d’exploitation en réunissant tous ces services distincts [et] en brouillant leurs données", a conclu M. Whittaker.

Si une application de messagerie comme Signal était intégrée à des agents d’intelligence artificielle, cela porterait atteinte à la confidentialité de vos messages, a-t-elle déclaré. L’agent doit accéder à l’application pour envoyer des messages à vos amis et récupérer des données pour résumer ces messages. Ses commentaires font suite aux remarques qu’elle a faites plus tôt au cours du panel sur la façon dont l’industrie de l’IA a été construite sur un modèle de surveillance avec une collecte massive de données. Elle a ajouté que le paradigme "bigger is better AI" (plus il y a de données, mieux c’est) avait des conséquences potentielles qu’elle ne jugeait pas bonnes. Avec l’IA agentique, Mme Whittaker a mis en garde contre le fait que nous compromettrions davantage la vie privée et la sécurité au nom d’un "robot génie magique qui va s’occuper des exigences de la vie", a conclu Mme Whittaker.