
L’intelligence artificielle ne se contente pas de pénétrer notre vie privée, elle fusionne des sphères de la vie autrefois distinctes, imposant ses propres valeurs au-delà de son champ initial. Cette « Googlisation du monde » risque de transgresser les frontières entre domaines de la société, bouleversant les présupposés scientifiques et moraux. Le danger réside dans la standardisation et la tyrannie des corrélations, où des biais algorithmiques amplifient nos préjugés.
Les deepfakes, les chambres d’écho et la surveillance de masse ne sont pas les seuls dangers du déploiement de l’intelligence artificielle (IA). Il existe un enjeu plus profond qui risque de mettre à mal tout autant nos principes démocratiques que scientifiques : la transgression des sphères de justice. (...)
Les modèles informatiques se sont mis à chercher, et à trouver (!), des corrélations dans des bases de données qui étaient autrefois séparées ou qui n’existaient tout simplement pas. Dès lors, il a été possible de demander à la machine quels étaient les critères déterminants pour tout et n’importe quoi (...)
Le problème n’est toutefois pas seulement que l’IA s’introduise dans notre vie privée, mais qu’elle entraîne une communication entre des sphères de la vie qui étaient distinctes les unes des autres. Cela s’opère à la fois par un expansionnisme des géants de la tech, qui propagent ainsi leurs valeurs, mais aussi par une propagation concomitante de la méthodologie de l’IA à des domaines de la société qui lui étaient auparavant inconnus, remettant ainsi en cause les présupposés scientifiques de chaque discipline au profit de simples corrélations. (...)