Si l'intelligence artificielle peut tout, comment éviter qu'elle fasse n'importe quoi ?
Tatouage pour distinguer les productions des IA des œuvres humaines, mesures de protection pour limiter les piratages et les hallucinations des algorithmes : les initiatives se multiplient pour encadrer le déploiement des intelligences artificielles.
/2024/09/14/nicolas-arpagian-66e5be37c179f515361798.png)
/2024/11/03/gettyimages-1969081867-67278d7ddf5fb766630988.jpg)
Photo, textes, vidéos, l’intelligence artificielle semble savoir tout faire. Comment peut-on savoir désormais, si l’auteur d'une de ces créations est un humain ? Il ne s’agit pas tant de savoir qui a conçu l’image ou la vidéo, que de savoir si celles-ci représentent des situations réelles, ou si elles sont uniquement le fruit d’un travail algorithmique.
C’est déterminant, par exemple, pour établir l’authenticité d’une prise de vue qui pourrait, si elle était fabriquée artificiellement, être utilisée à des fins de désinformation. C’est l’importance de la traçabilité d’une image ou d’un film. Pour identifier les deepfakes ou hypertrucage.
Un filigrane pour désigner les créations générées par une IA ?
On ne peut plus compter sur les "erreurs de jeunesse" de la technologie, qui ajoutaient un sixième doigt aux personnages, ou butaient sur la conception de jambes réalistes pour les humanoïdes numériques que l’on mettait en scène.
Aujourd’hui, les productions sont de plus en plus crédibles. Les équipes de l’entité DeepMind de Google ont publié fin octobre 2024 un article dans la revue scientifique Nature qui propose la piste d’un filigrane, la solution SynthID.
Il s'agirait d'intégrer un marquage, évidemment invisible à l’œil nu, dans toutes les productions émanant d’un modèle d’intelligence artificielle. Qu’il s’agisse de textes, d’images ou de séquences animées. L’idée étant que l’on puisse rechercher la présence de ce tatouage numérique, en cas de doute sur l’origine de la création.
Un marqueur qui reste contournable
À l’instar des antivols mis sur les vêtements dans un magasin, des techniques existeront toujours pour neutraliser ou effacer le dispositif. Par exemple, lors de l’analyse de textes. Il faut que le marquage résiste à des modifications délibérées, comme le remplacement de certains mots, de la paraphrase, voire des traductions. Les tests montrent une meilleure performance pour les textes longs et plutôt créatifs. L’outil serait moins efficace pour des sujets abordés de manière très factuelle et synthétique.
Cela confirme qu’il ne faut pas compter sur une seule technologie pour repérer les contenus problématiques. Et qu’il revient à chacun/e de conserver un regard critique et réfléchi sur les images, textes ou vidéos qui lui passent sous les yeux. Surtout si ces productions sont chargées en émotion, ou ont une portée politique. Il ne faut pas renoncer à l’intelligence humaine pour apprécier leur réalité et leur pertinence.
Des mesures de protection à intégrer dès la conception des modèles d’intelligence artificielle
Cette prise en compte originelle de la sécurisation vaut pour toutes les atteintes visant les Grands Modèles de Langage (en anglais LLM, pour Large Language Model). Ce sont ces mécanismes d'apprentissage automatique capables de comprendre des requêtes et de générer des contenus. Le Laboratoire d'Innovation Numérique (LINC) de la CNIL, la Commission Nationales Informatique et Libertés, a publié en octobre 2024 deux notes présentant les principales familles de risques en la matière.
Pour commencer, il y a le risque de régurgitation. Lorsque vous interrogez une IA et que celle-ci fournit dans ses réponses des données personnelles provenant des séances ayant servi à son entraînement préalable. De même, l’IA a pu recevoir pour consigne de générer un texte invitant l’utilisateur à communiquer des informations destinées à demeurer confidentielles. On comprend alors l’importance de soigner l’anonymisation des jeux de données servant à l’apprentissage des IA.
Il faut aussi anticiper la génération de réponses toxiques. Comme lorsque l'IA, par exemple, est sollicitée pour concevoir des contenus haineux ou violents. Ou pour élaborer des programmes informatiques malveillants.
Instaurer une culture de la sécurité
Les principales recommandations en matière de sécurisation ont été présentées dans un document établi avant l’été 2024, par l’Agence nationale de sécurité des systèmes d’information (ANSSI).
Elle rappelle l’importance de documenter l’ensemble des processus d’élaboration des modèles d’intelligence artificielle : de la qualité des informations utilisées en amont, à l’identification des personnes autorisées à intervenir sur les bibliothèques de données et les règles algorithmiques, jusqu’au contrôle des conditions de stockage, notamment dans le cloud, de l’ensemble de cette machinerie numérique.
Au-delà des seuls techniciens, il est souhaitable que le grand public, de plus en plus amené à manier ces outils d’IA, se familiarise avec ces principes de précaution. Alors que l’IA est appelée à jouer un rôle grandissant dans nos vies personnelles et professionnelles.
À regarder
-
Tempête "Benjamin" : des annulations de trains en cascade
-
Femme séquestrée : enfermée 5 ans dans un garage
-
Vaccin anti-Covid et cancer, le retour des antivax
-
A 14 ans, il a créé son propre pays
-
Ils piratent Pronote et finissent en prison
-
Aéroports régionaux : argent public pour jets privés
-
Bali : des inondations liées au surtourisme
-
Cambriolage au Louvre : une nacelle au cœur de l'enquête
-
Alpinisme : exploit français dans l'Himalaya
-
Un objet percute un Boeing 737 et blesse un pilote
-
Cambriolage au Louvre : où en est l'enquête ?
-
Jean-Yves Le Drian défend l'image de la France
-
Chine : 16 000 drones dans le ciel, un nouveau record du monde
-
Donald Trump lance de (très) grands travaux à la Maison Blanche
-
Glissement de terrain : des appartements envahis par la boue
-
Emmanuel Macron sème la confusion sur la réforme des retraites
-
Tornade meurtrière : scènes d'apocalypse dans le Val-d'Oise
-
Nicolas Sarkozy : premier jour en prison
-
La lutte sans relâche contre les chauffards
-
L'OMS alerte sur la résistances aux antibiotiques
-
Les frères Lebrun, du rêve à la réalité
-
Que disent les images de l'incarcération de Nicolas Sarkozy ?
-
Algospeak, le langage secret de TikTok
-
Une Russe de 18 ans en prison après avoir chanté des chants interdits dans la rue
-
Cambriolage au Louvre : d'importantes failles de sécurité
-
"Avec Arco, on rit, on pleure..."
-
Wemby est de retour (et il a grandi)
-
Arnaque aux placements : la bonne affaire était trop belle
-
Une tornade près de Paris, comment c'est possible ?
-
La taxe Zucman exclue du prochain budget
Commentaires
Connectez-vous ou créez votre espace franceinfo pour commenter.
Déjà un compte ? Se connecter