Le signalement de contenus pédopornographiques générés par l'IA "a explosé" depuis début 2025, selon une association

Le nombre de pages web, partout dans le monde et signalées à l'Internet Watch Foundation, montrant des images pédopornographiques générées par l'intelligence artificielle a explosé de 400%.

Article rédigé par Margaux Stive
Radio France
Publié Mis à jour
Temps de lecture : 4min
Un homme visionnant des images pornographiques. Photo d'illustration. (PIERRE DESTRADE / MAXPPP)
Un homme visionnant des images pornographiques. Photo d'illustration. (PIERRE DESTRADE / MAXPPP)

Sur les six premiers mois de l'année 2025, le signalement de contenus pédopornographiques en ligne générés par l'Intelligence artificielle "a explosé", a appris franceinfo vendredi 11 juillet auprès de l'Internet Watch Foundation (IWF), association britannique qui lutte contre les contenus d'exploitation sexuelle en ligne.

Dans ce document consulté par franceinfo, on apprend que le nombre de pages web – partout dans le monde et signalées à l'IWF – montrant des images pédopornographiques générées par l'intelligence artificielle (IA), a explosé de 400%. L'IWF a aussi été alertée en six mois sur 1 286 vidéos d'abus sexuels d'enfants générées par l'IA et signalées à l'IWF lors du premier semestre en 2025, contre deux au cours de la même période en 2024.

"Les criminels deviennent plus habiles"

L'office mineurs (Ofmin), qui gère ces dossiers en France, a vu ce type de contenus générés par l'IA émerger en 2023. En France, aucune statistique n'est disponible pour l'instant sur le nombre exact de contenus pédocriminels générés par l'IA.

L'utilisation de l'IA pour ce type de contenus, même si elle est en très nette progression, reste à ce stade minoritaire, a nuancé Quentin Bévan, commissaire à l'Ofmin, au micro de franceinfo. "Ça augmente, oui, on constate de plus en plus d'occurrences dans les 165 000 signalements" de contenus pédocriminels reçus par l'Ofmin en 2024, constate-t-il. Mais si l'on se base sur les chiffres du NCMEC (National Center for Missing & Exploited Children), organisme de référence sur le sujet aux États-Unis, 63 millions de photos et vidéos pédocriminelles ont été partagées dans le monde en 2024. "Sur 63 millions, quand on parle de 1 286 vidéos (pour le premier semestre de 2025), ça reste relativement modeste", tempère Quentin Bévan.

Mais au-delà du nombre qui "explose", c'est "la qualité des vidéos" générées par l'IA qui inquiète l'IWF. La qualité "est presque parfaite", "il est impossible de les distinguer de vidéos authentiques", déplore le rapport de l'association britannique. L'IA reprend des visages d'enfants réels et crée de toute pièce des agressions sexuelles, souvent d'une violence extrême, car "les criminels deviennent plus habiles à créer et à représenter de nouveaux scénarios obscènes".

"Impossible de les distinguer des films authentiques"

La manipulation par l'IA, la modification, la duplication et la reproduction des contenus complique aussi le travail des enquêteurs, ajoute Quentin Bévan à franceinfo. "Souvent ce qui va être fait, c'est qu'on va prendre un vrai enfant qui est abusé, et on va modifier le décor : vous allez changer l'affiche qui est au mur ou la langue, explique-t-il. Et donc finalement, ce qui se passe dans un vestiaire de sport à Manchester, vous allez avoir l'impression que ça se passe dans un local en Thaïlande, et donc vous nuisez aux capacités d'identification et d'exploitation techniques qui sont faites par les enquêteurs."

"Comme nous l'avons vu avec les images fixes, les vidéos d'abus sexuels sur des enfants diffusées par l'IA ont atteint un niveau tel qu'il est impossible de les distinguer des films authentiques", alerte Derek Ray-Hill, directeur général par intérim de l'IWF. "Les enfants représentés sont souvent réels et reconnaissables, le préjudice causé par ce matériel est réel et la menace qu'il représente risque de s'intensifier encore davantage", prévient-il.

L'association britannique appelle l'Union européenne (UE) à combler "une faille critique" dans sa législation. Elle "demande au Conseil de l'UE de revoir sa position sur la directive relative aux abus sexuels commis sur des enfants, qui autorise la possession d'images d'abus sexuels commis sur des enfants pour un 'usage personnel". L'IWF souhaite aussi que l'UE criminalise dans ses 27 États membres toute "création, possession et distribution de manuels et de modèles d'abus sexuels d'enfants par IA".

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.