La France organise sa capacité à évaluer et analyser les modèles d'intelligence artificielle

Face à la multiplication des ruptures technologiques et des risques liés à l'IA, le gouvernement crée un Institut national dédié à l'évaluation et la sécurité de l'intelligence artificielle (INESIA) pour coordonner les différentes expertises issues de la sphère publique.

Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
Le rôle de l’INESIA est de se fonder sur la seule expertise technique pour évaluer la performance et la fiabilité des modèles d’IA annoncés. (ANDRIY ONUFRIYENKO / MOMENT RF / GETTY IMAGES)
Le rôle de l’INESIA est de se fonder sur la seule expertise technique pour évaluer la performance et la fiabilité des modèles d’IA annoncés. (ANDRIY ONUFRIYENKO / MOMENT RF / GETTY IMAGES)

Depuis 2022, et la mise en ligne de ChatGPT, l’intelligence artificielle (IA) s’immisce dans nos vies quotidiennes et devient un sujet de puissance économique, technologique et géopolitique. En témoigne le Sommet pour l’Action sur l’IA que la France accueille les 10 et 11 février 2025.

Si chacun commence à comprendre les usages qui peuvent être faits de ces technologies, ils sont encore peu nombreux à maîtriser le détail des modes de conception et de fonctionnement technique des modèles algorithmiques. Et les compétences en matière de supervision et d’évaluation de l’IA sont très dispersées au sein de l’appareil d’Etat. C'est ce qui justifie la création de l'Institut National pour l’Evaluation et la Sécurité de l’Intelligence Artificielle (INESIA).

Mutualiser les expertises de l'Etat

Les entreprises et les pays rivalisent de communication pour se positionner avec des solutions d’IA affichées comme étant plus extraordinaires les unes que les autres. Le rôle de l’INESIA est précisément de se fonder sur la seule expertise technique pour évaluer la performance et la fiabilité des modèles d’IA annoncés. Il doit également travailler à l’analyse des risques systémiques dans le champ de la sécurité nationale. Et aider les autorités en vue d’une mise en œuvre d’une régulation de l’IA.

Les experts en IA sont en nombre restreint et il aurait été difficile de créer ex nihilo une structure nouvelle. C’est une coordination de différentes administrations qui disposent chacune de leur domaine de spécialité :

  • l’Agence Nationale de la sécurité des systèmes d’information (ANSSI),
  • l’Institut National de Recherche en sciences et technologies du numérique (INRIA),
  • le Laboratoire national de métrologie et d’essais (LNE),
  • le Pôle d’expertise de la régulation numérique (Peren).

Cet Institut ne dispose pas d’un budget dédié ni de pouvoirs de régulation. Par contre, il pourra financer ses travaux d’étude avec les fonds (60 M€ environ) existants du plan France 2030 et de la Stratégie Nationale pour l’IA.
Il est indispensable que l’Etat puisse disposer d’une capacité d’analyse et de compréhension fine de ces modèles algorithmiques complexes.

Des homologues existent déjà à l'étranger

L’INESIA a vocation à interagir avec ses homologues – on parle de AI Safety Institutes – des Etats qui sont entrés dans cette même démarche lancée en mai 2024 par la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, adoptée par la France.

Des équivalents de l’INESIA existent donc déjà au Canada, en Corée du Sud, aux Etats-Unis d’Amérique (sous la Présidence Biden donc possiblement en question à terme par l’Administration Trump), au Japon, au Kenya, à Singapour ou au Royaume-Uni.

Dans le même esprit, la Commission européenne dispose depuis mars 2024 d’un bureau de l’IA (AI Office). Car utiliser l’IA c’est bien, toujours comprendre comment elle fonctionne, c’est mieux.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.