
Il suffirait d’un très faible nombre de changements dans les bases de données utilisées pour entraîner les intelligences artificielles afin de les induire en erreur. Des chercheurs ont découvert deux méthodes pour y parvenir avec la plupart des grandes bases de données utilisées actuellement.
L’arrivée des chatbotschatbots comme ChatGPTChatGPT soulève des craintes de voir des individus mal intentionnés s’en servir pour créer des arnaques, comme le phishing, plus nombreuses et plus difficiles à déceler. Toutefois, ces intelligences artificiellesintelligences artificielles ont aussi leurs propres faiblesses. Des chercheurs de Google, de l’École polytechnique fédérale de Zurich, Nvidia, et Robust Intelligence ont prépublié un article sur arXiv qui détaille deux attaques possibles contre les IA.
Les deux attaques consistent à modifier, ou « empoisonner » les informations utilisées pour leur entraînement. L’IA n’étant pas capable de repérer les fausses informations (...)
Une récente étude chiffre à 0,001 % la quantité de fausses informations nécessaires pour empoisonner le modèle entier. Selon l’utilisation de l’IA, les conséquences pourraient s’avérer dangereuses.
L’attaque de type « split-view poisoning » (...)
Le « frontrunning poisoning » (...)
Les chercheurs ont indiqué plusieurs pistes pour se défendre contre ce genre d’attaque. (...)