
La multiplication des processus automatisés de prise de décision n’exonère par les organisations de leur obligation d’expliquer, de manière compréhensible par tous, les actions confiées à des algorithmes. La Cour de Justice de l’UE vient d’affirmer ce droit
L’intelligence artificielle (IA) s’invite de plus en plus dans notre vie quotidienne et professionnelle. Les entreprises, et même certaines administrations, utilisent désormais l’IA pour compiler des données et formuler une analyse à partir de celles-ci. Dans certains cas, cela va jusqu’à transférer à ces programmes des actions qui peuvent avoir un effet dans la vie très réelle. Au risque de ressembler à des "boîtes noires" qui agissent par elles-mêmes.
Il n’est évidemment pas satisfaisant pour la personne qui subit une position prise par une telle machinerie de s’entendre répondre pour seule explication qu’il s’agit du choix d’un ordinateur. La Cour de Justice de l’Union européenne, qui siège au Luxembourg, a rendu le 27 février 2025 un arrêt(Nouvelle fenêtre) : un individu a le droit de se faire expliquer comment la décision qui le concerne a été prise à son égard, même s’il s’agit d’un mécanisme automatisé. (...)
Les magistrats européens imposent la transparence (...)
Apprendre à expliquer la technologie (...)
Apprendre à expliquer la technologie (...)
Le secret des affaires perdure
Au cas où les informations à fournir seraient protégées au titre du secret des affaires, notamment parce qu’elles contiendraient par exemple des éléments considérés comme déterminant pour la compétitivité de l’entreprise, c’est une juridiction nationale qui établira alors l’étendue du droit d’accès. Toujours l’équilibre recherché entre l’exercice de différents droits : celui des individus et celui des organisations.