
Le géant américain Google a annoncé, mercredi, signer le code de conduite de l’Union européenne concernant l’encadrement des modèles d’intelligence artificielle à usage général, tandis que Meta se refuse à le faire. Cette future réglementation, baptisée "IA Act", suscite les foudres des géants de la tech.
Google a annoncé, mercredi 30 juillet, signer le code de conduite de l’Union européenne sur l’encadrement des modèles d’intelligence artificielle (IA), contrairement à Meta.
"Nous allons rejoindre plusieurs autres entreprises (...) en signant le code de conduite de l’Union européenne sur l’IA à usage général", a indiqué Kent Walker, président des affaires mondiales de Google.
OpenAI, créateur de ChatGPT, et la start-up française Mistral ont déjà annoncé signer ce code de conduite, tandis que Meta (Facebook, Instagram...) – virulent détracteur des règles numériques européennes – a affirmé qu’elle ne le ferait pas.
Publiées le 10 juillet, ces recommandations européennes sur les modèles d’IA les plus avancés, comme ChatGPT, mettent notamment l’accent sur les questions de droits d’auteur.
L’UE appelle à exclure de l’IA les sites connus pour des actes répétés de piratage et demande aux signataires de s’engager à vérifier que leurs modèles ne reprennent pas des propos injurieux ou violents.
Ces recommandations sont pensées pour les modèles d’IA à usage général, comme ChatGPT, Grok de la plateforme X ou Gemini de Google.
Grok a récemment défrayé la chronique en relayant des propos extrémistes et injurieux. La start-up d’Elon Musk xAI, responsable de Grok, avait présenté ses excuses pour le "comportement horrible" de son robot conversationnel. (...)
Mise en place le 2 août
Ce "code de bonnes pratiques" n’est pas contraignant. Les entreprises signataires bénéficieront toutefois d’une "charge administrative réduite" quand il s’agira de prouver qu’elles se conforment bien à la législation européenne sur l’IA, promet la Commission européenne.
Cette future réglementation, baptisée "IA Act", suscite les foudres des géants de la tech, qui ne cessent d’appeler à reporter la loi. (...)
L’exécutif européen dit vouloir limiter les dérives de l’IA tout en évitant de brider l’innovation. C’est pourquoi il classifie les systèmes selon leur niveau de risque, avec des contraintes proportionnelles au danger.
Les applications à haut risque, utilisées par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumises, d’ici à 2026, à des exigences renforcées avant toute autorisation de mise sur le marché en Europe.