Vrai ou faux ChatGPT rend-il "stupide", comme l'affirment de nombreux internautes à partir d'une étude américaine ?

Article rédigé par Luc Chagnon
France Télévisions
Publié
Temps de lecture : 8min
L'étude du MIT tente d'analyser les effets de ChatGPT sur la cognition, mais ses conclusions sont parfois résumées de manière simplificatrice. (JULIEN TROMEUR / AFP)
L'étude du MIT tente d'analyser les effets de ChatGPT sur la cognition, mais ses conclusions sont parfois résumées de manière simplificatrice. (JULIEN TROMEUR / AFP)

Des chercheurs ont tenté d'évaluer l'activité du cerveau pendant l'écriture d'une rédaction, avec ou sans IA. Mais le protocole de l'étude, pas encore validée par d'autres scientifiques, empêche d'en tirer des conclusions générales.

"ChatGPT vous rend idiot !" Vraiment ? C'est en tout cas ce qu'affirment de nombreux internautes sur les réseaux sociaux depuis la sortie de l'intelligence artificielle générative du groupe OpenAI à la fin de l'année 2022. L'affirmation a trouvé un nouveau souffle avec la publication d'une étude du prestigieux Massachussets Institute of Technology (MIT), mardi 10 juin, qui s'est penchée sur l'activation du cerveau avec ou sans utilisation de ChatGPT.

Les résultats de cette étude ont déclenché une vague de publications sur les réseaux sociaux et dans des médias, affirmant que "ChatGPT grille votre cerveau", mais cette idée fait débat. L'une des chercheuses du MIT a même réagi aux nombreux commentaires provoqués par ses recherches. Alors, que dit vraiment cette étude ? Peut-on en tirer des conclusions générales ou définitives ?

Un effort intellectuel moindre

Cette étude tant discutée (PDF) a été diffusée sur le site de prépublication arXiv et n'a pas encore été validée par un comité de lecture (une étape importante dans le processus de publication scientifique). Elle a été principalement réalisée par des chercheurs du MIT et du MIT Media Lab, qui ont mené leur expérience sur 54 personnes âgées de 18 à 39 ans. Chaque individu devait écrire une sorte de rédaction sur des questions morales ou philosophiques, mais avec des outils différents : un premier groupe de 18 personnes pouvait utiliser GPT-4o, une version récente de ChatGPT ; un deuxième avait le droit d'utiliser un moteur de recherche comme Google et le troisième ne pouvait compter que sur lui-même.

L'activité cérébrale des participants était à chaque fois enregistrée par les chercheurs grâce à un électroencéphalogramme, qui mesure l'activité du cerveau avec des électrodes appliquées sur le crâne. Pour quels résultats ? D'après les auteurs de l'étude, "le groupe 'cerveau seul' présente les réseaux [de connexions cérébrales] les plus forts et les plus étendus, le groupe 'moteur de recherche' montre un engagement intermédiaire et le groupe 'ChatGPT' affiche les connexions les plus faibles du total".

"La connectivité cérébrale diminue systématiquement avec la quantité d'aide extérieure."

Des chercheurs du MIT

dans une étude non publiée

Pour les auteurs de l'étude, les participants ayant utilisé ChatGPT"n'ont peut-être pas exploité toutes leurs capacités cognitives, (...) peut-être parce qu'ils s'étaient habitués à l'aide de l'IA", notamment lors d'un exercice où ils ne pouvaient plus se servir de l'intelligence artificielle. Les textes rendus par ces participants montrent aussi un "effort faible", avec un résultat "principalement copier-coller" et "des modifications minimales", pour un résultat "pas très différent de la réponse de base de ChatGPT à la consigne".

Il n'en fallait pas plus pour que de nombreux internautes, influenceurs ou éditorialistes tirent des conclusions très tranchées. "ChatGPT grille votre cerveau", assène le philosophe Gaspard Koenig dans Les Echos , qui assure que l'étude du MIT "établit une perte massive de capacités cognitives chez les utilisateurs d'IA générative". D'autres sites, comme Journaldugeek.com et Europe 1, écrivent par exemple que "ChatGPT ramollit le cerveau", ou que "ChatGPT vous rendrait bête, fainéant et amnésique, selon une étude".

Mais ce n'est pas si simple. En effet, cette étude présente de nombreuses limites, que reconnaissent les chercheurs eux-mêmes. Le plus flagrant, c'est l'échantillon choisi, qui est loin d'être représentatif : les 54 sujets sont presque tous étudiants ou chercheurs dans des universités de Boston (Massachussets). Et sur ces 54 personnes, celles qui ont dû utiliser ChatGPT puis rédiger par eux-mêmes, sur lesquelles se concentrent la plupart des commentaires, n'étaient que neuf.

La protocole de l'étude est également en cause. Sur le site The Conversation, des chercheurs d'une université australienne soulignent que le groupe ChatGPT n'a pu rédiger avec son "cerveau seul" qu'une fois, alors que le groupe "cerveau seul" initial a pu le faire trois fois, ce qui lui a permis de s'habituer à l'exercice. La session 4 impliquait aussi de revisiter un thème précédemment choisi, donc le groupe "cerveau seul" qui avait mieux mémorisé a pu utiliser l'IA pour chercher de nouveaux arguments, et non pour écrire la base de la dissertation.

Des conclusions trop rapides sur l'activité cérébrale

D'autres critiquent la méthode utilisée pour capter l'activité cérébrale, et les conclusions tirées de ces relevés. "L'électroencéphalogramme utilisé ne permet pas de savoir quelles zones du cerveau sont précisément activées", explique à franceinfo Marc Cavazza, professeur d'IA à l'université de Stirling (Ecosse) et spécialiste en neurosciences. Il plaide pour l'utilisation d'une technique plus moderne comme l'IRM fonctionnelle, qui permettrait d'établir quelles régions du cerveau sont activées et comment elles s'influencent les unes les autres – ce que les chercheurs recommandent eux-mêmes dans la rubrique "Limites".

"L'étude interprète l'activité cérébrale à partir de concepts un peu anciens, du type 'l'activité électroencéphalographique alpha est associée à la créativité'", explique également Marc Cavazza. "Mais on ne peut pas en déduire directement qu'une activité plus faible veut dire une perte de capacités cognitives, c'est tout au plus un indice."

"Dire que si on n'écrit pas soi-même, on a moins de charge cognitive, c'est assez évident ! Mais on ne peut pas inférer qu'on sera plus ou moins bête à terme, c'est sauter des étapes."

Marc Cavazza, spécialiste de l'IA et des neurosciences

à franceinfo

Face aux interprétations trop radicales, l'une des auteures de l'étude a tenu à clarifier les choses. "Avons-nous assez de données pour tirer des conclusions fortes ? Non", écrit Nataliya Kosmyna sur LinkedIn. "Nous pouvons dire ce que nous avons trouvé avec nos données, avec nos participants et avec notre protocole."

"Nous n'avons pas découvert que les intelligences artificielles rendaient les sujets d'étude ou qui que ce soit d'autre 'stupides', 'bêtes' ou 'abrutis'. (...) S'il vous plaît, arrêtez d'écrire et de partager ces affirmations !"

Nataliya Kosmyna, une des auteures de l'étude du MIT

sur LinkedIn

Nataliya Kosmyna estime que les réactions montrent un "biais de confirmation réel et fort". Pour autant, cela ne veut pas dire que les IA génératives n'ont aucun effet. "Des travaux supplémentaires sont nécessaires !" exhorte la chercheuse.

Des discours de plus en plus polarisés

Ça n'est pas la première fois qu'une étude qui évoque des risques possibles des IA génératives est présentée de manière un peu trop tranchée. En avril 2025, une étude réalisée par des chercheurs de Microsoft Research et largement reprise évoquait "l'impact de l'IA générative sur l'esprit critique", rapportant des "baisses de l'effort cognitif et de la confiance ressentie par des travailleurs" de professions "intellectuelles". Mais Marc Cavazza rappelle que cet esprit critique était évalué par un questionnaire subjectif et pas véritablement "mesuré".

Le spécialiste appelle à mener d'autres études pour approfondir nos connaissances et rappelle que l'étude des chercheurs du MIT est un "preprint", c'est-à-dire qu'il n'a pas encore été validé par d'autres chercheurs. Il déplore une "polarisation" du discours autour de l'IA : "Je ne pense pas qu'il faille tirer de conclusions extrêmes ou définitives à ce stade face à des enjeux aussi importants. Ça n'aide pas les personnes qui doivent ensuite prendre des décisions ou définir des normes." Avec ou sans IA, le plus grand risque pour l'esprit critique vient peut-être de soi-même.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.