Vrai ou faux
Fausses études publiées, désinformation... Quand l'intelligence artificielle produit du contenu scientifique bidon

En cette période estivale, franceinfo s'intéresse aux pièges que l'intelligence artificielle nous tend. On s'intéresse ce matin au monde scientifique ou l'IA peut facilement générer de fausses publications qui paraissent pourtant crédibles.

Article rédigé par Thomas Pontillon
Radio France
Publié
Temps de lecture : 2min
Quand l'intelligence artificielle se mêle de sciences (photo d'illustration). (KIRILL KUDRYAVTSEV / AFP)
Quand l'intelligence artificielle se mêle de sciences (photo d'illustration). (KIRILL KUDRYAVTSEV / AFP)

Ce sont des scientifiques - des vrais - qui ont prouvé l'existence de ces fausses études. Ces chercheurs, basés aux États-Unis, ont voulu démontrer que de fausses publications pouvaient berner des revues scientifiques. Ils ont donc demandé à ChatGPT de leur écrire cinq textes. Il y avait dedans des fautes d'orthographe et des citations complètement inventées. Ils les ont envoyés à plus de 250 revues scientifiques, connues pour ne pas être très regardantes sur la méthodologie.  

Une cinquantaine de revues a accepté de publier ces fausses études. Les scientifiques voulaient dénoncer précisément le comportement de ces revues, qualifiées de prédatrices, parce qu'elles publient la plupart du temps sans relecture ou modification, du moment que l'auteur paie. Là, en l'occurrence, ils devaient débourser en moyenne 500 euros pour pouvoir publier ce qui ressemblait à une étude, mais qui était en fait complètement bidon.  

De fausses études qui peuvent participer à la désinformation  

L'intelligence artificielle arrive même à berner des scientifiques. C'est ce que montre une autre expérience menée par des chercheurs américains. Ils ont demandé à ChatGPT de résumer de vraies études qu'ils ont ensuite soumises à des spécialistes. Ils avaient entre les mains de vrais résumés, écrits par des scientifiques, et d'autres générés par intelligence artificielle. Bilan : 1 fois sur 3, ils ont cru reconnaître la plume d'un professionnel, alors que c'était bien l'IA qui avait écrit le texte. Les auteurs de cette étude ont voulu alerter sur l'usage de l'intelligence artificielle qui peut, selon leurs mots, falsifier entièrement des recherches.  

Parce que ces fausses études sont ensuite partagées sur les réseaux sociaux, elles sont présentées comme des preuves. Et on l'a vu, c'est assez facile de se faire avoir. C'est d’ailleurs arrivé il y a quelques mois, avec une soi-disant étude, devenue rapidement virale, parce qu'elle remettait en cause le réchauffement climatique. Sauf que le texte publié par une revue prédatrice avait été entièrement rédigé par Grok, l'intelligence artificielle du réseau X, avait relevé le site AFP factuel. Et pour être rédigée, elle s'était appuyée sur des études largement contestées depuis des années par la communauté scientifique. 

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.