Face à la surabondance d’informations automatisées, Wikipedia revendique la priorité accordée à la supervision humaine

La plus importante encyclopédie mondiale en ligne souhaite donner la priorité à l'intelligence artificielle pour aider ses rédacteurs à vérifier l'information plutôt que pour produire des articles supplémentaires.

Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
L'encyclopédie en ligne Wikipedia engage une réflexion collaborative sur l'utilisation de l'intelligence artificielle. (MARVIN SAMUEL TOLENT / IMAGEBROKER.COM / MAXPPP)
L'encyclopédie en ligne Wikipedia engage une réflexion collaborative sur l'utilisation de l'intelligence artificielle. (MARVIN SAMUEL TOLENT / IMAGEBROKER.COM / MAXPPP)

La facilité offerte par l’IA générative pour écrire des textes pose la question de la qualité et de la véracité des informations accessibles sur Internet. Un sujet qui préoccupe les animateurs de la première encyclopédie mondiale en ligne, Wikipedia.

Pour rappel, l’institut Médiamétrie indiquait qu’en décembre 2024 Wikipédia est le 8e site le plus visité en France, avec 30.350.000 visiteurs uniques par mois et 4.025.000 visiteurs uniques par jour. Cette encyclopédie en ligne, fondée en 2001, est gérée par la Fondation Wikimedia. Face aux mutations technologiques des deux dernières décennies, les animateurs de cette communauté mondiale – largement fondée sur le bénévolat de ses quelque 300.000 contributeurs mensuels – analysent régulièrement les évolutions technologiques qui affectent cette publication qui rassemble plus de 58 millions d’articles.

Des IA génératives potentiellement hyperproductives

L’IA générative se caractérise par l’emploi de modèles de langage qui permettent d’élaborer via des algorithmes des textes, des images, des vidéos ou des compositions sonores. Une faculté à fabriquer des contenus de manière entièrement automatisée.

Avec à la clé des risques de manipulation délibérée de l’information mais aussi d’hallucination involontaire. C’est le cas quand l’IA rédige des explications péremptoires mais erronées à partir de données diverses.

Un lecteur non averti pourrait se laisser tromper par ces affirmations qui donnent l’illusion d’être étayées et véridiques.

Une position fondée sur une consultation de la communauté

Dans l’esprit de sa démarche collaborative, la Fondation a conduit de juin 2024 à février 2025 une discussion en ligne avec ses contributeurs à ce propos. Notamment sur la prise en compte du décalage qui existe entre rapidité de la création de contenus mécanisés et la vérification des informations, qui demeure lente et coûteuse. La conclusion de ces travaux est que – dans le cadre de Wikipedia – l’IA doit être utilisée en priorité pour aider les éditeurs du site à s’assurer de l’intégrité des articles plutôt qu’à fabriquer automatiquement des contenus supplémentaires.

Elle peut leur servir pour prendre en charge des tâches répétitives afin de libérer du temps pour conduire un travail encyclopédique de fond comme la discussion de sujets complexes et la recherche de consensus. Soit une priorité assumée accordée aux rédacteurs humains, conscients que les avancées technologiques peuvent remettre en question ces considérations sur leur mode de travail.

Cette politique a vocation à s’appliquer du 1er juillet 2025 au 30 juin 2028. Et ces concepteurs prévoient de faire le point une fois par an sur les éventuelles ruptures techniques qui pourraient survenir, afin le cas échéant d’adapter leur manière de piloter la gestion éditoriale de Wikipedia.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.