Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
nextinpact
ChatGPT poursuivi en justice pour diffamation
#IA #ChatGPT
Article mis en ligne le 9 juin 2023

Mark Walters, un animateur radio américain, porte plainte contre OpenAI car ChatGPT a envoyé à un journaliste une réponse déclarant que Walters détournait des fonds de The Second Amendment Foundation (SAF), une association de défense du port d’armes.

Dans le détail, Fred Riehl, le rédacteur en chef d’un site spécialisé dans les armes à feu, a demandé à ChatGPT de résumer une affaire concernant le Procureur général de Washington, Bob Ferguson. La machine a produit un texte dans lequel Mark Walters est cité comme trésorier et directeur financier de la SAF – ce qu’il n’est pas –, quand bien même Walters n’avait jamais été mentionné auparavant par le journaliste. (...)

C’est la première plainte de ce type, et si rien ne dit qu’OpenAI sera condamné pour celle-ci, elle pourrait ouvrir le bal d’une série d’autres poursuites du même type, selon plusieurs juristes interrogés par Gizmodo.

lire aussi :

ChatGPT invente un cas de harcèlement sexuel et accuse une personne réelle

Les modèles d’IA générative à la ChatGPT ne sont pas sans risques pour l’écosystème de l’information. Nouvelle illustration avec une récente « hallucination », comme les appellent les chercheurs, de ChatGPT.

Alors qu’un avocat californien demandait à ChatGPT de générer une liste de juristes accusés de harcèlement sexuel, celui-ci a produit le nom de Jonathan Turley. Citant un article publié en mars 2018 par le Washington Post, le robot produit un texte dans lequel il est expliqué que Jonathan Turley aurait attouché sexuellement une étudiante pendant un voyage en Alaska.

Problème : il n’y a pas eu de voyage en Alaska, pas plus que d’article dans le Washington Post. Et si Jonathan Turley avait déjà fait corriger des interviews, cette fois-ci, il n’y avait aucun journaliste ni aucune rédaction à appeler.

L’affaire a été rapportée par le Washington Post (pour de vrai, cette fois-ci) à peine quelque jours après que le maire de Hepburn Shire, en Australie, avait menacé de porter plainte pour diffamation. Dans son cas, la machine d’OpenAI avait formulé un texte déclarant, à tort, que l’homme avait passé du temps en prison pour corruption. (...)

Dans ces affaires, non seulement la machine diffuse de fausses informations, mais elle les rend d’autant plus crédibles qu’elle fournit aussi de fausses citations sur lesquelles appuyer son propos. (...)