Veo 3 : l’IA de Google qui menace la fiabilité des images

Sons, voix, ambiances : Veo 3 génère des vidéos ultra-réalistes qui remettent en question notre capacité à distinguer le vrai du faux.

Article rédigé par Antoine Deiana
Radio France
Publié Mis à jour
Temps de lecture : 4min
Captures écrans de vidéos générées par la nouvelle IA de Google, Veo 3. (CAPTURE ECRAN YOUTUBE GOOGLE DEEPMIND - RADIO FRANCE)
Captures écrans de vidéos générées par la nouvelle IA de Google, Veo 3. (CAPTURE ECRAN YOUTUBE GOOGLE DEEPMIND - RADIO FRANCE)

Présentée en mai 2025 lors de la conférence Google I/O, Veo 3 est une intelligence artificielle capable de créer des vidéos avec des plans fluides, des personnages crédibles, et surtout des sons, des dialogues, des ambiances sonores parfaitement synchronisés à l’image.

Jusqu’à présent, les IA génératives comme Sora, développée par OpenAI, se concentraient uniquement sur l’image. Avec Veo 3, Google franchit un nouveau cap : il devient possible de générer des séquences entières, son compris, à partir d’un simple prompt textuel, une requête du type : "Deux amis discutent dans une gare pendant que les trains passent."

Des vidéos indiscernables… Même pour les plus aguerris

À la cellule Vrai ou Faux de franceinfo, nous avons visionné les vidéos de démonstration publiées par Google sur sa chaîne YouTube. Les défauts sont rares, parfois imperceptibles. Un mouvement légèrement saccadé ici, une texture un peu trop lisse là… mais rien de visible à vitesse normale. Dans la plupart des cas, l’illusion est totale.

Même en ralentissant l’image ou en coupant le son, il est devenu pratiquement impossible d’identifier une vidéo générée sans outils techniques spécifiques. Et c’est précisément ce niveau de réalisme qui inquiète les professionnels de l’information.

Un défi majeur pour les journalistes et les vérificateurs d’infos


Ce type d’outil pourrait très vite poser un problème majeur pour la vérification des contenus. Car à terme, n’importe qui pourrait fabriquer une vidéo d’un événement fictif en quelques clics :un faux discours politique, un faux bombardement dans une zone de guerre bien réelle, une interview truquée, etc.

Et ce, alors que la désinformation est déjà massive, et parfois très difficile à identifier, notamment sur les réseaux sociaux.

Un agent de Viginum, le service de l’État chargé de surveiller les ingérences numériques étrangères, a confié récemment à Libération son inquiétude face au niveau de réalisme de Veo 3.

Un outil encore restreint… mais déjà opérationnel

À ce jour, Veo 3 n’est pas disponible en France. L’outil est réservé aux États-Unis, accessible uniquement en anglais, via un abonnement payant à 250 dollars par mois. Et même à ce prix, l’usage reste très encadré : impossible de générer des célébrités, pas de continuité vocale entre plusieurs vidéos, et un nombre de rendus limité.

Ces garde-fous imposés par Google freinent, pour l’instant, les dérives potentielles. À l’inverse, des outils concurrents comme Kling 2.0, MiniMax ou LTX Studio, souvent développés en Chine, sont déjà utilisés sans restriction par des faussaires, car ils peuvent être installés en local et échappent à toute forme de régulation.

Conscient du risque, Google indique travailler sur un système de filigrane numérique invisible, destiné à marquer discrètement les vidéos générées par Veo 3. L’objectif : permettre aux journalistes, chercheurs ou plateformes de vérifier plus facilement si une vidéo a été créée par une IA.

Mais ces systèmes, aussi utiles soient-ils, auront sans doute toujours un temps de retard sur les usages malveillants. Et pour les professionnels de l’information, un défi majeur s’annonce : continuer à distinguer, dans le flot d’images en ligne, ce qui relève du réel… et ce qui a été inventé.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.