Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
futura sciences
La plus grande menace pour les Intelligences artificielles comme ChatGPT se cache sur Internet
#IA #ChatGPT #piratage
Article mis en ligne le 11 mars 2023
dernière modification le 10 mars 2023

Il suffirait d’un très faible nombre de changements dans les bases de données utilisées pour entraîner les intelligences artificielles afin de les induire en erreur. Des chercheurs ont découvert deux méthodes pour y parvenir avec la plupart des grandes bases de données utilisées actuellement.

L’arrivée des chatbotschatbots comme ChatGPTChatGPT soulève des craintes de voir des individus mal intentionnés s’en servir pour créer des arnaques, comme le phishing, plus nombreuses et plus difficiles à déceler. Toutefois, ces intelligences artificiellesintelligences artificielles ont aussi leurs propres faiblesses. Des chercheurs de Google, de l’École polytechnique fédérale de Zurich, Nvidia, et Robust Intelligence ont prépublié un article sur arXiv qui détaille deux attaques possibles contre les IA.

Les deux attaques consistent à modifier, ou « empoisonner » les informations utilisées pour leur entraînement. L’IA n’étant pas capable de repérer les fausses informations (...)

Une récente étude chiffre à 0,001 % la quantité de fausses informations nécessaires pour empoisonner le modèle entier. Selon l’utilisation de l’IA, les conséquences pourraient s’avérer dangereuses.

L’attaque de type « split-view poisoning » (...)

Le « frontrunning poisoning » (...)

Les chercheurs ont indiqué plusieurs pistes pour se défendre contre ce genre d’attaque. (...)