Enquête franceinfo
"La première limite, c'est de garder le contrôle" : comment les journalistes s'approprient l'usage de l'intelligence artificielle

Le secteur des médias n'est pas épargné par la progression de l'intelligence artificielle. Dans les rédactions françaises, son utilisation se fait dans un cadre strict et sans remplacer le travail du journaliste.

Article rédigé par Audrey Abraham
Radio France
Publié
Temps de lecture : 9min
Les médias traditionnels s'adaptent progressivement à l'avancée de l'intelligence artificielle, image d'illustration. (RICCARDO MILANI / HANS LUCAS)
Les médias traditionnels s'adaptent progressivement à l'avancée de l'intelligence artificielle, image d'illustration. (RICCARDO MILANI / HANS LUCAS)

Alors que Radio France organise Médias en Seine, mardi 14 janvier, franceinfo s'interroge sur la manière dont les radios et les journaux apprivoisent l'intelligence artificielle. Si les possibilités offertes par l'IA sont vertigineuses, son utilisation doit se faire avec une extrême prudence et la garantie de garde-fous.

Certains outils développés, ces dernières années, sont tout simplement surprenants. Il est, par exemple, possible de cloner des voix à l'identique et de leur faire dire absolument ce qu'on veut, au point de ne plus discerner la fiction de la réalité et de tromper l'auditeur. Ce ne sont pas les méthodes utilisées par franceinfo. Les voix diffusées à l'antenne sont toutes réelles, prononcées par des humains, depuis les studios de Radio France ou enregistrés par des reporters ou des techniciens sur le terrain.

Une IA animatrice de radio

Mais ailleurs dans le monde, certains médias ne sont pas aussi regardants. Aux Etats-Unis, par exemple, la radio locale de Portland, dans l'Oregon, Live 95.5, a cloné la voix d'Ashley, une de ses animatrices. Celle-ci continue de parler au micro, une partie de la journée, et puis c'est sa version IA qui prend le relais. La chaîne estime, entre autres, que cela permet à l'animatrice de se concentrer sur d'autres tâches plus administratives sur ses horaires de travail.

Certains médias sont même 100% conçus par l'intelligence artificielle. Récemment, l'artiste Will.i.am, ancien membre des Black Eyed Peas a lancé l'application FYI. Par thématique (politique, culture, sports...), l'utilisateur peut trouver les dernières actualités racontées par une voix générée par l'IA. Des actualités non exhaustives et qui sont une agrégation d'informations piochées directement sur internet. Cela pose la question de la transparence, de la vérification des sources... Même lorsque la technologie est extrêmement bien développée. Il y a de quoi douter de la fiabilité des informations relayées.

"Ce n'est pas l'IA qui va écrire les articles à notre place"

Ce n'est évidemment pas comme cela qu'est traitée l'information à Radio France. Pour autant, comme dans de nombreux médias dits "de confiance", les journalistes ne s'interdisent pas d'avoir recours à certains outils d'intelligence artificielle pour accomplir certaines tâches. C'est le cas du correcteur orthographique, utilisé pour la rédaction des articles. Des logiciels de retranscription d'interview sont également accessibles si le journaliste le souhaite. C'est ce que font la majorité des rédactions. "Ce sont essentiellement des outils d'éditions. Parfois on ne trouve pas le titre idéal, donc on a des outils qui sont capables de proposer, plus ou moins bien, des titres, détaille Benoît Georges, journaliste en charge de l'implantation de l'IA aux Echos. Mais la base, ce sont toujours des articles que nous avons écrits. Ce n'est pas l'IA qui va les écrire à notre place."

L'objectif ici est d'assister le journaliste, de lui faire gagner du temps... mais pas de le remplacer. Tout ça se fait dans un cadre strict : des chartes d'utilisation de l'intelligence artificielle ont d'ailleurs été élaborées dans la plupart des médias, ces dernières années. La cheffe du numérique aux Echos, Violaine Degas, veille ainsi au respect des grands principes : "La première limite, c'est vraiment de garder le contrôle. Il y a toujours un œil humain, un œil de journaliste, qui viendra valider ce que la fonctionnalité peut produire via l'intelligence artificielle. Ça ne remplace pas du tout le travail du journaliste. L'analyse, le décryptage, l'enquête, l'écriture, l'angle : tout ce que fait un journaliste n'est pas remplacé par ces fonctionnalités."

"Suggérer, inspirer le rédacteur"

C'est d'autant plus indispensable que la technologie n'est pas toujours fiable. "Il peut y avoir des lacunes, il peut y avoir des problèmes de formulation, des problèmes d'hallucination comme on dit... Tout simplement, il va inventer des informations, décrit Stanislas de Livonnière est à la tête du service data et innovation au journal Le Parisien. C'est quelque chose qui n'est absolument pas admissible pour un journaliste. Bien au contraire. Alors, ces outils sont là pour suggérer, pour inspirer le rédacteur, mais surtout pas pour publier automatiquement."

"Le journalisme, c'est trouver de l'information et la vérifier. Ce sont deux choses que, à ce stade, l'intelligence artificielle ne sait pas faire."

Stanislas de Livonnière, chef du service data et innovation au Parisien

à franceinfo

Paradoxalement, l'explosion de l'information en ligne générée par l'IA pourrait même, d'après Benoît Georges, ramener les lecteurs vers les médias traditionnels : "Il y a un phénomène que les médias américains appellent l'IA slop, de la 'bouillie d'IA'. Ça ne coûte plus rien de fabriquer des textes qui ressemblent à des articles d'information, mais on se rend compte aussi que l'humain détecte que quelque chose ne va pas, qu'il y a une espèce de rabâchage, de médiocrité des contenus à faible valeur. Paradoxalement, ça crée du désintérêt et on peut espérer que les gens reviennent vers les médias classiques, qui, eux, garantissent une façon de travailler et une déontologie qu'on n'a absolument pas dans l'océan de contenus factices qui tend à envahir les réseaux sociaux et les sites web."

"Une démarche qui part de l'usage"

Le groupe Ouest France travaille sur la question depuis plus de dix ans. David Dieudonné y est chargé de projet. Parmi les lignes rouges à ne pas franchir, l'utilisation d'images générées par l'IA pour illustrer des articles d'actualité : "On n'illustre pas un article avec une image synthétique. On considère que notre travail, c'est l'information. Quand il y a une photo, c'est une véritable photo puisqu'on est dans un environnement strictement informationnel et c'est notre devoir de rendre compte de la réalité." Il en va du contrat de confiance entre le média et ses lecteurs ou ses auditeurs.

Alors, l'adoption de ces outils se fait progressivement, en partant des besoins concrets des journalistes et en collaboration directe avec les équipes, défend David Dieudonné : "C'est vraiment une démarche qui part de l'usage. Un journaliste, par exemple, qui cherche à résoudre un problème qu'il rencontre dans son quotidien, grâce à l'accès sécurisé qu'on lui donne à certains outils, peut créer des petits prototypes lui-même. Ensuite, on regarde ces prototypes sous tous les angles (éditoriaux, juridiques, RSE...) pour comprendre s’ils peuvent être déployés à grande échelle."

Convaincus que l'IA peut être une véritable aide au sein des rédactions, les médias travaillent continuellement au développement de leurs propres outils et à l'amélioration de nouvelles fonctionnalités. À Radio France, la direction du numérique et de l'innovation est à la pointe. "On regarde tout ce qui se passe en France, à l'international, avance Matthieu Beauval, directeur en charge de l'innovation. Dès qu'un nouvel outil arrive, on va le tester. Nous avons des protocoles qui nous permettent de juger de la pertinence, de l'adéquation des outils avec les besoins éditoriaux des équipes de Radio France."

"On reste très pragmatiques et très responsables"

La direction du numérique et de l'innovation est un peu un laboratoire d'idées : on y fait des tests, des expérimentations, et, surtout, on ne s'interdit rien, glisse-t-on. "Il y a plein de choses qui ne verront sans doute jamais le jour, plein de choses qui verront le jour sous de nouvelles versions parce que les outils ne cessent d'évoluer, confie Matthieu Beauval. Exemple avec tout ce qui concerne l'analyse de documents en masse : des choses qu'un être humain ne peut pas vraiment faire parce qu'il faudrait des jours et des semaines pour analyser plus de deux millions de documents. Pour ça, l'intelligence artificielle nous fait gagner un temps considérable et c'est très utile en termes d'investigation et de vérification de l'information."

Ces expérimentations sont menées avec beaucoup "d'enthousiasme", assure Mathieu Beauval, mais aussi de la prudence pour ne pas tomber dans les travers de la technologie : "On ne peut pas se laisser complètement emporter par ça. On ne peut pas être techno béat, on ne peut pas être techno solutionnistes. C'est génial, c'est extrêmement stimulant et on préfère y voir quelque chose qui repousse les frontières et permettra aux médias, demain, de mieux travailler et aux gens qui fabriquent les médias de mieux travailler. Mais on reste aussi très pragmatiques et très responsables par rapport à ça." Les équipes sont progressivement formées pour faire bon usage de chacun de ces nouveaux outils.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.