Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Ligue des Droits de l’Homme
" L’AI Act doit protéger l’Etat de droit" : Lettre ouverte de 70 associations européennes dont la LDH (traduction DeepL.com/Translator)
#IA #droitsfondamentaux #UE
Article mis en ligne le 2 octobre 2023

Lettre ouverte - L’AI Act doit protéger l’Etat de droit

Les organes de l’Union européenne sont actuellement engagés dans la phase finale des négociations sur la loi relative à l’intelligence artificielle (loi sur l’IA). En tant que représentants d’organisations de la société civile engagées dans la défense et le contrôle de l’État de droit et de la démocratie dans l’Union européenne, nous appelons les législateurs à s’assurer que la loi sur l’IA est pleinement cohérente avec les normes de l’État de droit, y compris la transparence, la responsabilité et l’accès à la justice. Compte tenu du déclin actuel de l’État de droit en Europe et de l’inquiétude croissante suscitée par l’utilisation abusive de l’IA, l’Union ne peut pas se permettre de manquer cette occasion cruciale et devrait introduire des garanties solides pour protéger le plein respect des droits de l’homme et de l’État de droit.

L’intelligence artificielle (IA) transforme rapidement notre monde. Son influence s’étend à tous les aspects de notre vie, des soins de santé à l’éducation, en passant par la gouvernance et l’application de la loi. Si les avantages potentiels de l’IA sont indéniables, il est impératif que nous donnions la priorité à la protection de nos valeurs communes, telles qu’elles sont énoncées dans les traités de l’UE et dans la Charte des droits fondamentaux de l’UE.

Le principe de l’État de droit, inscrit à l’article 2 du traité UE, est fondamental pour l’UE. Cette valeur fondamentale est une condition préalable à la réalisation des droits fondamentaux et des autres valeurs fondamentales. Les exigences de l’État de droit signifient, entre autres, un processus législatif transparent, responsable, démocratique et pluraliste ; la sécurité juridique ; l’interdiction de l’arbitraire des pouvoirs exécutifs ; une protection judiciaire effective et égale, y compris l’accès à la justice, par des tribunaux indépendants et impartiaux ; la séparation des pouvoirs ; la non-discrimination et l’égalité devant la loi. L’État de droit est inextricablement lié à la protection de la démocratie et des droits fondamentaux ; ces trois critères se renforcent mutuellement et il convient donc d’établir le lien entre le développement et le déploiement des systèmes d’IA et l’État de droit.

Alors que l’IA est de plus en plus déployée par les secteurs privé et public, l’État de droit exige que l’UE adopte des garanties solides pour protéger les fondements mêmes de notre Union. L’utilisation abusive des systèmes d’IA, y compris leur déploiement opaque et non responsable par les autorités publiques, constitue une menace sérieuse pour l’État de droit et la démocratie. Dans les États membres où ces derniers vacillent, les lacunes réglementaires, telles que les dérogations en matière de sécurité nationale et d’application de la loi, pourraient être exploitées pour affaiblir les institutions et les processus démocratiques, ainsi que l’État de droit. La loi sur l’IA doit créer un environnement réglementaire solide et sûr, fondé sur la protection des droits fondamentaux et de l’État de droit.

L’inclusion obligatoire d’études d’impact sur les droits fondamentaux (EIDF), telle qu’elle apparaît dans la position du Parlement européen sur la loi sur l’IA, constitue une garantie essentielle pour l’exercice responsable et respectueux des droits du pouvoir. Nous soutenons que, à l’instar de l’obligation énoncée dans la loi sur les services numériques, qui exige que les très grandes plateformes en ligne procèdent à des évaluations des risques, les évaluations d’impact sur les droits fondamentaux devraient être envisagées dans le contexte d’une tendance émergente à l’élaboration de normes et de certifications pour des pratiques de gouvernance responsables en matière d’intelligence artificielle. Les AMI devraient être une obligation pour toutes les technologies d’IA à haut risque afin de garantir qu’elles sont déployées d’une manière qui respecte les principes de justice, de responsabilité et d’équité. Les AMRF fournissent un cadre structuré pour évaluer et éviter les violations potentielles des droits fondamentaux, en veillant à ce que les technologies d’IA respectent, promeuvent et protègent ces droits.

Les États étant responsables de la bonne mise en œuvre du cadre de l’État de droit, le fait que les autorités publiques, y compris les services répressifs, effectuent des analyses d’impact sur les droits fondamentaux n’est pas une simple recommandation, mais une garantie nécessaire pour que les systèmes d’IA soient conçus et déployés dans le plein respect des valeurs de l’UE et de la Charte des droits fondamentaux de l’Union européenne.

La transparence, pierre angulaire de la gouvernance démocratique et élément essentiel pour garantir que les règles sont élaborées et appliquées de manière claire et prévisible, comme l’exige l’État de droit, doit faire partie intégrante du processus FRIA. Les conclusions et les résultats de l’AMIE doivent être accessibles au public, y compris aux personnes concernées par les décisions prises à l’aide des systèmes d’IA, et faire l’objet d’un retour d’information et d’un examen. Cela permet de s’assurer que les déployeurs d’IA restent responsables devant les personnes concernées par l’utilisation des systèmes et offre aux organisations de la société civile, aux organismes de surveillance et au grand public une plateforme leur permettant de s’engager dans un contrôle constructif.

Ce cadre de responsabilité ne peut garantir l’État de droit et les droits fondamentaux que s’il s’applique à tous les systèmes d’IA à haut risque. Toute lacune ou exemption nuirait à la sécurité juridique et conduirait à l’exercice arbitraire du pouvoir, ce qui est fondamentalement incompatible avec le principe de l’État de droit.

Les amendements à l’article 6 de la loi sur l’IA dans les textes du Conseil et du Parlement ont créé une faille qui donne aux entreprises et aux autorités publiques le pouvoir de décider unilatéralement que leur système d’IA devrait être exempté des exigences de la loi sur l’IA, même s’il est destiné à être utilisé dans l’un des domaines à haut risque, tels que l’application de la loi, la justice, les élections ou les services publics essentiels. Si un fournisseur choisit de s’exempter, toutes les obligations qui en découlent pour les déployeurs de ces systèmes ne s’appliqueront plus non plus. Par conséquent, les autorités publiques qui déploient ces systèmes à haut risque échapperaient arbitrairement à toutes les obligations de la loi sur l’IA visant à protéger les personnes affectées par l’IA contre l’abus de leurs droits fondamentaux.

Pour protéger l’État de droit, la loi sur l’IA ne devrait pas prévoir d’exemption générale en matière de sécurité nationale. Si la sécurité nationale peut, dans certains cas, être considérée comme un motif légitime de restriction des droits fondamentaux, toute exception aux exigences de la loi sur l’IA doit être évaluée au cas par cas, conformément à la Charte des droits fondamentaux de l’Union européenne et à la jurisprudence de la CJUE. Les risques pour les droits fondamentaux sont sans doute les plus graves lorsque les systèmes d’IA sont déployés à des fins de sécurité nationale, étant donné l’absence de définition communément acceptée de la sécurité nationale et le risque d’abus qui en découle. Nous en avons été témoins lorsqu’un logiciel de surveillance invasif - Pegasus - a été utilisé dans certains États membres de l’UE pour espionner des journalistes, des membres de la société civile et des politiciens de l’opposition. Du point de vue des exigences de l’État de droit, il est donc impératif que les garanties fondamentales prévues par la loi sur l’IA soient également respectées lorsque des technologies d’IA sont développées ou utilisées à des fins de sécurité nationale.

En outre, les personnes lésées par l’utilisation indue ou inappropriée de ces systèmes doivent avoir accès à des voies de recours efficaces.

C’est pourquoi,
 Nous demandons aux législateurs de l’UE de rendre obligatoire la réalisation d’analyses d’impact sur la sécurité des systèmes d’IA à haut risque, conformément aux amendements proposés par le Parlement européen à l’article 29 bis, et d’inclure des règles garantissant que les analyses d’impact sur la sécurité des systèmes d’IA sont menées de manière ouverte et transparente et que leurs conclusions font l’objet d’un examen public.

 Nous appelons les législateurs européens à rejeter l’amendement proposé par le Conseil européen à l’article 2 de la loi sur l’IA, qui vise à exclure du champ d’application de la loi les systèmes d’IA développés ou utilisés à des fins de sécurité nationale.

 Nous demandons aux législateurs européens de revenir à la version de l’article 6(2) de l’Acte sur l’IA proposée par la Commission, supprimant ainsi les nouvelles failles qui donneraient aux développeurs d’IA, qu’ils soient issus du secteur public ou privé, le pouvoir de s’exempter unilatéralement des garanties établies dans l’Acte sur l’IA.

Alors que l’UE navigue dans les complexités de l’ère numérique, il est de la plus haute importance que nous ne perdions pas de vue nos valeurs fondamentales. Nous appelons les législateurs européens à tenir compte de nos demandes pour témoigner de l’engagement de l’UE à protéger l’État de droit contre les déploiements de l’IA. L’avenir de nos sociétés dépend des choix que nous faisons aujourd’hui.