Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Academia/Hypothèses/ MARANINCHI Florence
Pourquoi je n’utilise pas ChatGPT
#IA #ChatGPT
Article mis en ligne le 20 mai 2025
dernière modification le 18 mai 2025

L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un argumentaire que je vais développer ici.

1. Introduction

En tant qu’enseignante-chercheuse en informatique, j’ai lu l’article fondateur On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? [1] en 2021. Tous les effets négatifs observés des grands modèles de langage et des IAs génératives sont annoncés dans cet article, comme le dit d’ailleurs l’une des autrices dans un entretien récent. Quand j’ai été confrontée personnellement à des textes rendus par des étudiant·es et écrits par ChatGPT, dès janvier 2023, ma méfiance a priori pour cette branche du numérique a commencé à s’incarner dans l’expérience personnelle. Depuis j’accumule des articles et des prises de position sur ce phénomène, mais je n’ai jamais été tentée d’essayer moi-même. (...)

Le vocabulaire a beaucoup glissé ces derniers temps, mais rappelons que l’IA est une idée très ancienne, et que si on se met à qualifier tout le numérique d’IA, il va devenir difficile de parler précisément des choses. Donc : tout le numérique n’est pas de l’IA ; parmi tout ce qui relève de l’IA, tout n’est pas de la famille “apprentissage machine” ; et finalement parmi la famille “apprentissage machine”, tout n’est pas une IA générative comme ChatGPT et consort. On trouvera un historique de l’IA et les définitions de ces notions dans le numéro de juin 2024 de la revue La vie de la recherche scientifique sur l’IA.

À quoi sert de refuser d’utiliser ChatGPT ? Je suis parfaitement consciente que ce refus peut sembler totalement vain, puisque nous sommes tous et toutes entouré·es d’étudiant·es et de collègues qui s’en servent très régulièrement, et que nos gouvernements successifs se ruent sur les promesses d’automatisation et d’économie de moyens humains envisagées en particulier dans les services publics. Après tout, le progrès technologique est inéluctable, n’est-ce pas ? Je n’ai pas la moindre illusion sur ma capacité à changer les pratiques à moi toute seule. J’ai encore moins d’illusions sur une possible influence citoyenne sur le développement de ces outils, par les temps qui courent (...)

Ce qui suit n’est pas un article de recherche. C’est une prise de position personnelle, émaillée de mes lectures préférées sur le sujet. Cette position est basée sur des préoccupations déjà anciennes à propos des impacts des technologies numériques, renforcées par la fréquentation assidue des domaines des systèmes dits critiques (l’informatique dans les trains, les avions, les centrales nucléaires, …). Dans ces domaines la sécurité et la sûreté priment sur la performance, les durées de vie des systèmes sont plus longues que dans l’informatique grand public, les acteurs sont heureusement frileux vis-à-vis d’évolutions trop rapides. Je ne suis pas chercheuse en IA et ne l’ai jamais été. Je n’ai pas pratiqué de longues expérimentations des outils disponibles, même si j’ai lu attentivement ce qu’en disaient les collègues qui l’ont fait. Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques. Si aucune technologie n’est jamais neutre, dans le cas présent la configuration politico-financière extrêmement concentrée dans laquelle se déploient ces outils est particulièrement préoccupante et devrait selon moi conduire à une certaine prise de conscience. Et cela même si l’on est impressionné par les capacités de ces outils, ou tenté par les promesses de gain de temps et d’augmentation de créativité, voire convaincu que le stade de l’IA générale capable de surpasser l’humain est imminent (et désirable).

Le tour d’horizon qui suit est uniquement à charge. L’espace médiatique étant saturé de promesses politiques et d’articles dithyrambiques, ce peut être vu comme un petit exercice de rééquilbrage du discours (...)

2. Les impacts socio-environnementaux du numérique sont déjà préoccupants, cela ne va pas s’arranger (...)

Au cas où ces impacts environnementaux (qui sont d’ailleurs déjà des impacts socio-environnementaux) ne suffiraient pas à disqualifier le déploiement des grandes IAs génératives, les conditions de travail des humains indispensables au développement de ces outils devrait régler la question. Un article récent aborde cette situation en la qualifiant d’esclavage moderne (...)

3. Le contexte politique et économique du déploiement des IAs génératives devrait inciter à la prudence

Aucune technologie n’est neutre ni inéluctable. Chacune se déploie dans un certain contexte économique et politique qui oriente les choix. Cela a toujours été le cas pour le numérique, depuis le début. L’extrême concentration d’acteurs et de moyens qui préside au déploiement des IAs génératives devrait aider à prendre conscience de cet état de fait. L’annonce récente de 500 milliards de dollars à consacrer au sujet donne la (dé)mesure de la chose. (...)

Si les IAs génératives conduisent à la fin de l’humanité, ce sera en monopolisant les ressources et en aggravant les problèmes socio-environnementaux, pas en atteignant la superintelligence.

4. Quid d’une alternative éthique, souveraine, et aux impacts maîtrisés ?

Quand j’explique les raisons de mon refus total de mettre le doigt dans l’engrenage ChatGPT, on me cite souvent les alternatives éthiques, souveraines, ouvertes, aux impacts environnementaux maîtrisés, respectueuses des droits des auteurs, etc. Je ne remets pas en cause a priori la qualité de ces développements, ni les motivations de leurs auteurs. Simplement il me semble qu’en pariant sur ces alternatives on passe à côté d’un certain nombre de questions. (...)

Question 1 – effet d’entraînement (...)

C’est un développement extrêmement mal orienté si l’on s’attarde quelques minutes sur le numérique face aux limites planétaires. Il est urgent au contraire de s’intéresser à des trajectoires décroissantes du numérique, et j’espère qu’on en est encore capables. (...)

Question 2 – est-ce seulement désirable ? Quoi qu’il en soit des impacts, il est de toute façon permis de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu. Il y a des idées qui sont juste de mauvaises idées, même si elles semblent inéluctables. Dans ce cas tous les impacts, même petits, sont déjà du gaspillage. (...)

5. Quid des usages utiles ?

Pour le plaisir de l’argumentation, poursuivons en mettant de côté les impacts et en supposant que c’est une bonne idée d’interagir avec des machines via des modèles de langage. Nous sommes soumis en permamence à un discours politique qui vante les gains en efficacité rendus possibles par le déploiement de ces outils. Pourtant dans le cas des services publics, la numérisation à marche forcée a déjà produit de nombreux dégâts avant même l’introduction des IAs génératives, la presse s’en faisant souvent l’écho (...)

6. Conclusion

Que conclure ? Plus le temps passe, moins je suis tentée d’utiliser ChatGPT ou d’autres outils d’IA générative. Le rythme effréné des annonces et la vision du monde des promoteurs de ces outils m’ont définitivement vaccinée contre le moindre frémissement d’intérêt qui aurait pu subsister. Et je n’ai même pas abordé ici les questions de biais, de sécurité, de protection de la vie privée, … (...)