
Les grandes plateformes numériques ont acquis une place prépondérante dans la diffusion et la production de l’information. Elles posent de nombreuses questions pour notre critique. Ces plateformes sont-elles des médias à part entière ? Comment interviennent-elles dans le débat public ? Ont-elles une ligne éditoriale, voire politique ? Pour amorcer une réflexion critique sur le rôle des grandes plateformes dans le système médiatique, nous nous sommes entretenus avec Arthur Messaud et Benoît Piédallu de la Quadrature du Net, association de défense et de promotion des droits et liberté sur Internet.
Acrimed : On a beaucoup parlé de la suspension des comptes Twitter et Facebook de Trump suite à l’attaque du Capitole par ses partisans en janvier. Pour les commentateurs, cela pose la question du pouvoir de censure des grandes plateformes. Que vous inspirent ces débats ?
Quadrature du Net : La censure du compte de Trump est un cas très particulier. Elle a le mérite de rappeler qu’il ne faut pas attendre des grandes plateformes qu’elles soient les garantes de la liberté d’expression ou de la démocratie. Facebook ou Twitter sont certes devenus des lieux de débat, y compris politiques, mais ce sont avant tout des entreprises privées. Leur modèle économique, leur organisation est entièrement orientée vers le gain financier et les revenus publicitaires – qui représentent jusqu’à 95% du chiffre d’affaires dans le cas de Facebook. Il s’agit donc, pour elles, d’organiser la visibilité des publications de sorte à inciter les utilisateurs à rester ou à revenir. Ce qui est totalement incompatible avec ce que pourrait être un outil de débat d’intérêt public. Ces plateformes sont des espaces privés, elles ne répondent à personne ou presque et suppriment régulièrement des comptes, notamment de militants politiques.
La censure du compte Twitter de Trump est cependant un sujet tout à fait secondaire en matière de libertés sur internet, en comparaison à d’autres sujets comme le règlement « anti-terroriste », en cours d’adoption dans l’Union européenne. Les médias sont tellement frileux de se frotter à des sujets un tout petit peu compliqués… Ils préfèrent se jeter à corps perdu dans des débats faciles – et souvent inintéressants – comme c’est le cas pour la suspension du compte de Trump. Mais lorsqu’il s’agit des libertés des citoyens, avec des vrais textes qui ont des conséquences pour toutes et tous, c’est la démission totale. (...)
Il n’y a pas de liberté d’expression à sauver sur Twitter et Facebook. Ces plateformes sont faites pour organiser l’expression à des fins commerciales. Ce qui ne veut pas dire qu’il n’y a pas d’enjeux à leur faire rendre des comptes. (...)
si la police hongroise contacte un média français et exige de retirer un contenu de son forum, celui-ci doit s’exécuter en une heure sous peine de sanctions économiques ou même de sanctions pénales. Je parle de la police hongroise, mais c’est aussi valable a fortiori pour la police française. Ces dispositions sont similaires à celles de la loi Avia qui avait été censurées en 2020 par le Conseil constitutionnel, heureusement, mais qui reviennent au niveau européen. C’est vraiment la loi de censure la pire qu’on ait vu depuis dix ans… mais là encore, personne n’en parle, les grands médias s’en contrefichent. (...)
Il faut bien voir que les grandes plateformes revendiquent de faire de la censure et d’avoir une ligne éditoriale. Ce n’est pas quelque chose de caché. Par exemple, la Commission européenne a signé de nombreux accords et d’engagements de lutte contre le terrorisme avec Facebook, Google, Twitter ou Microsoft qui se montrent extrêmement pro-actifs et volontaires. Au point que ce sont eux qui vont susciter des initiatives pour déployer des dispositifs de censure « innovants ». Ces technologies pourront par la suite être imposées et généralisées par la loi, ce qui permettra aux grandes plateformes de vendre leurs outils. En matière de lutte contre certains types de contenus de haine, c’est la même chose, ils sont très pro-actifs.
Ce n’est pas la députée Avia qui a souhaité imposer aux plateformes de faire un travail de censure, c’est l’inverse (...)
Avec un discours selon lequel l’intelligence artificielle va tout régler en enlevant « l’humain » de la boucle. En réalité, on sait que ça ne marche pas, ou du moins qu’il est nécessaire d’avoir des personnes en chair et en os qui travaillent derrière : pour remplir les bases de données, aider à l’apprentissage, corriger les erreurs [1]. Des métiers très difficiles par ailleurs… Quoiqu’il en soit, on est loin aujourd’hui d’avoir des outils qui fonctionnent de manière autonome. Et au-delà de cela, il y a de nombreuses questions qui se posent sur la manière dont fonctionnent les algorithmes de modération, et sur leur incapacité par exemple à saisir ce qui relève de l’humour, ou du débat politique. Le risque étant de justifier la censure : « c’est la machine qui a pris la décision ». (...)
les mécanismes de modération recourent également à la dénonciation des contenus par les utilisateurs. Au bout d’un certain nombre de signalements, il y a un événement qui est déclenché au sein de la plateforme : soit la suppression automatique du compte et on voit ce qui se passe, si la personne se plaint ou pas ; soit un ou une employée qui va regarder si oui ou non le signalement est justifié. Un des problèmes étant celui des recours : il est très difficile d’avoir une réponse des plateformes une fois la décision prise – si ce n’est un message automatique et générique. On l’a dit, il y a l’exemple de nombreux militants, notamment de militantes LGBT, dont le compte a été suspendu sur Twitter pour des propos politiques ou le recours à des termes jugés insultants (...)
Les outils à base d’intelligence artificielle sont mis en avant par les gouvernements en disant : « ils sont capables de faire ça, on peut demander la suppression automatisée des contenus en une heure ». Outre la question des errements d’une telle modération, cela pose un autre problème : il n’y a que les grandes plateformes qui seront capables de tenir de telles contraintes. Ce qui pose un coût à l’entrée très important pour les nouvelles plateformes sociales, qui seront contraintes d’acheter un service à Facebook par exemple à défaut de pouvoir se conformer à la loi. (...)
Il y a une modération qui est nécessaire, et mise en oeuvre à juste titre. Mais il y a aussi une modération qui s’apparente à une censure politique. Pendant la crise des gilets jaunes, il y a eu des centaines de comptes et de pages qui ont été fermés. Et on peut redouter que Facebook ait un peu tiré sur la corde, sur ses conditions générales d’utilisation (CGU), pour bien être vu du gouvernement. Et ça, quand on est attaqué de toute part en matière de protection des données, c’est assez malin. (...)
Il faut voir que, entre les plateformes et le gouvernement, tout le monde a à y gagner dans ce jeu-là : d’un côté les plateformes gagnent en légitimité, ce qui est bon pour les affaires… et leur permet également de continuer à enfreindre la loi en matière de protection des données personnelles et de publicité sans être jamais inquiétées, parce qu’elles font le sale boulot de la censure du Web pour le compte de l’État. Aujourd’hui, s’il n’y a pas quotidiennement des scandales, des affaires d’harcèlement qui conduisent au suicide, c’est aussi parce que Facebook et Google font le travail que ne fait pas la justice parce qu’elle n’est pas du tout équipée. Et ça les gouvernements en ont parfaitement conscience. (...)
tant que ces gigantesques plateformes existeront ce système perdurera parce que leur fonctionnement même pose problème en soi, et parce que la justice n’aura jamais les moyens de faire le travail de modération que font Facebook et Google. (...)
Pour nous, ces plateformes ne devraient pas exister. Nous ne défendons pas forcément l’idée d’un démantèlement de type antimonopolistique ; par contre il est clair que si on appliquait vraiment les mesures de protection des données personnelles, elles ne seraient plus en mesure d’être rentables, de fonctionner. Aujourd’hui, elles font des bénéfices uniquement parce qu’elles enfreignent la loi. Une application réelle du RGPD aurait donc potentiellement pour conséquence un démantèlement de fait.
Au-delà de la question de la protection des données, nous considérons qu’il faut limiter le pouvoir et le caractère central de ces plateformes. Il devrait y avoir une limite de taille à partir de laquelle on considère qu’une plateforme est géante et on lui impose une obligation d’interopérabilité. C’est-à-dire, obliger ces plateformes à ouvrir leur réseau aux autres plateformes, de sorte qu’il soit possible de partir de ces réseaux tout en conservant la possibilité d’interagir avec les utilisateurs de la plateforme (...)
Idem pour le Web : il existe un nombre très différent de navigateurs et de serveurs qui permettent d’afficher des pages Web. Cette obligation d’interopérabilité pourrait s’appliquer aux messageries instantanées comme Whatsapp, Telegram, Signal ou encore Messenger : il suffirait d’un logiciel de messagerie pour échanger avec les utilisateurs de toutes ces applications.
Là encore, l’obligation d’interopérabilité pourrait conduire à un démantèlement de fait des grandes plateformes. Ou du moins, une réduction de leur taille, en favorisant le développement d’une myriade de nouveaux outils de réseaux sociaux, vers lesquels les gens iraient plus facilement. Ce principe d’interopérabilité progresse dans les esprits. (...)
Au-delà des initiatives réglementaires ou des anticipations des industriels, des alternatives ont déjà été mises en place par des bénévoles et militants. Ces outils de réseaux sociaux interopérables constituent le Fediverse, l’univers de toutes les plateformes fédérées et interconnectées par le protocole de communication ouvert ActivityPub, publié par l’organisme de normalisation du Web (W3C). Nous y contribuons à travers notre propre instance du réseau social Mastodon. Tout ceci montre bien qu’il ne s’agit pas d’utopie, mais d’alternatives nécessaires face à la mainmise des grandes plateformes.