Sommet de l'intelligence artificielle : on vous explique pourquoi la bataille de "l'open source" menée par la France agite le secteur de l'IA

Article rédigé par Luc Chagnon
France Télévisions
Publié Mis à jour
Temps de lecture : 10min
Le sommet de Paris sur l'IA se tient au Grand Palais, les 10 et 11 février 2025. (LUDOVIC MARIN / AFP)
Le sommet de Paris sur l'IA se tient au Grand Palais, les 10 et 11 février 2025. (LUDOVIC MARIN / AFP)

Contre les géants de l'intelligence artificielle comme OpenAI, Emmanuel Macron et les entreprises françaises soutiennent le développement d'IA ouvertes et modifiables par tous. De quoi partager plus largement les bénéfices liés à ces technologies, mais aussi les risques.

C'est une des principales annonce du Sommet pour l'action sur l'intelligence artificielle (IA) qui s'est tenu à Paris les 10 et 11 février. Dévoilés dimanche sur France 2 par Emmanuel Macron, les 109 milliards d'euros d'investissements (principalement privés) qui permettront de développer les infrastructures d'IA en France ont attiré l'attention et les commentaires, plus ou moins favorables.

Mais une autre information, plus discrète, pourrait avoir des effets conséquents sur le développement de ces technologies. Plusieurs pays, associations et géants du secteur ont profité de l'événement pour annoncer le lancement de "Current AI", un partenariat qui veut lever 2,5 milliards de dollars pour bâtir une IA "d'intérêt général".

Cette fondation n'est qu'un des exemples d'une politique soutenue par la France et qui a ébranlé les marchés financiers à la sortie de l'IA chinoise DeepSeek : le développement des IA dites open source, qui peuvent être librement utilisées et modifiées par n'importe qui. Et sans avoir à payer de licence ou à céder de droits d'auteur.

Ce type de développement semble s'opposer à toute recherche de profits, mais est pourtant soutenu par de nombreuses entreprises françaises, mondiales et par Emmanuel Macron. Pourquoi le chef de l'Etat et l'écosystème de l'IA tricolore soutiennent-ils autant ce modèle ? Quels avantages les spécialistes lui reconnaissent-ils ? Et pourquoi certains s'en inquiètent ? Eléments de réponse.

Partager les bénéfices le plus largement possible

Le monde de l'IA n'est pas étranger au libre partage des connaissances. C'est, par exemple, la publication par Google en 2017 du fonctionnement d'une certaine architecture d'IA, appelée "Transformer", qui a participé à l'explosion actuelle du secteur. De même que sa mise à disposition sur la plateforme d'hébergement d'IA Hugging Face, qui regroupe plus d'un million de "briques" d'IA mises à disposition par leurs créateurs.

De nombreux géants actuels de l'IA, notamment OpenAI, ont toutefois abandonné cette politique d'ouverture au cours des années. Selon eux, leurs IA devenaient trop puissantes et pouvaient être utilisées pour de mauvais usages. Il fallait donc les garder sous contrôle, comme l'avait affirmé OpenAI dès 2019 et la sortie de GPT-2, le "grand frère" de ChatGPT.

Selon les défenseurs de l'open source, diffuser librement les connaissances est pourtant essentiel pour partager les bénéfices promis par l'IA au maximum de monde. D'après le site du Sommet, le partage des logiciels limiterait ainsi "l'augmentation rapide de la fracture numérique et l'inégalité accrue entre ceux qui maîtriseront et ceux qui consommeront l'IA". Et ce, dans tous les domaines dans lesquels elle est présentée comme pouvant apporter des bénéfices, comme dans la santé, l'agriculture, l'industrie et bien d'autres.

Paris soutient depuis des années la recherche open source, par exemple en permettant aux chercheurs d'utiliser le supercalculateur tricolore Jean-Zay. "On a la chance d'avoir une tradition forte du logiciel libre en France, soutenue par l'Etat", soulignait pour franceinfo avant le sommet Pierre-Carl Langlais, co-fondateur de la start-up française Pleias, qui entraîne des IA ouvertes. Et cette philosophie est aujourd'hui au centre de l'offensive diplomatique française en matière d'IA.

Un moyen de stimuler la concurrence

Ce choix obéit aussi à des considérations économiques. Le partenariat "Current AI" doit porter un "objectif assez offensif de diversification du marché de l'IA" et "recréer de la concurrence", expliquait l'Elysée dans une présentation à la presse en amont du sommet. En résumé : plus les IA seront disponibles et modifiables gratuitement, plus les entreprises pourront les adapter à leur sauce sans avoir à payer une poignée de géants qui se partageraient le marché.

"Quand on n'a pas des milliards à mettre dans la création d'un modèle de fondation, mais qu'on accepte une démarche plus ouverte, on peut réussir à mobiliser une grosse communauté qui participe au développement", expliquait à franceinfo Guillaume Avrin, le coordonnateur de la stratégie nationale pour l'IA. "L'ouverture est une bonne stratégie de seconds", appuyait de son côté Gaël Varoquaux, directeur de recherche à l'Inria et un des Français les plus cités dans le domaine de l'IA avec son logiciel open source "scikit-learn".

"Quand on n'est pas premier, il faut s'allier avec le troisième, le quatrième, le cinquième… pour essayer de rattraper la tête."

Gaël Varoquaux, directeur de recherche à l'Inria

à franceinfo

Pour permettre tout cela, "Current AI" devrait donc financer la conception de "morceaux" d'IA (architectures, jeux de données, bibliothèques…) pouvant ensuite être mis à disposition librement, pour que chacun puisse s'en saisir et créer sa propre IA, un peu à la manière de briques de Lego. Mais l'organisation devrait aussi financer des projets de recherche, des systèmes pour auditer les modèles d'IA, ou encore l'élaboration de bonnes pratiques pour limiter les risques.

Ce "partenariat" venant à peine d'être rendu public, on ignore encore précisément quels projets vont en bénéficier. "Le diable est toujours dans les détails", rappelle pour franceinfo Stella Biderman, directrice exécutive d'Eleuther AI, un groupe de recherche open source à but non lucratif. Mais elle se dit "très enthousiaste" de voir la France inciter les concepteurs d'IA à ouvrir les entrailles de leurs programmes.

"Pour nous, ce n'est pas une bonne chose que les entreprises qui gagnent de l'argent grâce à ces technologies contrôlent la recherche sur ces mêmes technologies."

Stella Biderman, directrice exécutive d'Eleuther AI

à franceinfo

"L'histoire nous a déjà montré plusieurs fois que les entreprises qui ont ce contrôle peuvent tout simplement cacher les informations qui leur sont défavorables", souligne cette spécialiste. Et de citer les exemples des industriels du tabac avec le cancer, ou ceux des énergies fossiles avec le changement climatique.

Plus de transparence (jusqu'à un certain point)

Qu'en pensent les acteurs de l'IA ? De nombreux représentants de l'IA française interrogés par franceinfo soutiennent cette approche. "Partager la recherche en IA permet d'accélérer son développement et sa mise en œuvre dans les entreprises", approuve par exemple Florian Douetteau, patron de la "licorne" française du traitement de données Dataiku, auprès de franceinfo. Même le leader français de l'IA générative, Mistral AI, publie le code de ses modèles.

L'open source est aussi un bon point aux yeux de spécialistes qui travaillent sur "l'éthique de l'IA". Plus un système est transparent, plus on peut mesurer ses biais ou ses usages dangereux potentiels. Mais certains mettent en garde contre un risque d'"open washing" : des entreprises d'IA présentent leurs modèles comme "ouverts", alors même qu'elles ne publient pas la liste des données qui ont servi à les entraîner. C'est pourtant un élément important de la définition de l'open source établie par l'association "Open Source Initiative", rappelle le site spécialisé The Verge.

En effet, les mêmes lignes de code informatique qui font marcher un modèle d'IA donneront des résultats très différents si les données d'entraînement changent. Mais les entreprises gardent souvent leur recette secrète (ce qui permet notamment de limiter le risque de procès pour viol de propriété intellectuelle). Beaucoup d'IA dites "ouvertes" sont simplement open weights : ce qui est public, ce sont leurs "poids", un des paramètres qui décrivent le fonctionnement interne du système.

Des détournements malveillants facilités

Mais pour d'autres, le développement des logiciels open source ne devrait pas se faire sans régulation. "Je soutiens l'open source depuis longtemps, mais l'IA est pour moi dans une catégorie différente", commente pour franceinfo David Evan Harris, professeur à l'Université de Berkeley (Etats-Unis) et conseiller auprès de nombreuses instances internationales sur la régulation des réseaux sociaux et de l'IA.

"L'IA n'est pas juste du code : c'est du contenu, des milliards de données comme compressées entre elles. Et si une partie de ce contenu est illégal, on le régule."

David Evan Harris, professeur à l'Université de Berkeley

à franceinfo

S'il affirme que les IA (open source ou non) peuvent apporter de nombreux avantages, il évoque également les IA génératives et leur capacité à créer "des informations dangereuses comme la recette d'une bombe", ou "des deepfakes [montages automatisés] pornographiques non consentis qui affectent particulièrement les femmes et les minorités". Et si ces programmes sont lâchés dans la nature sans contrôle, les garde-fous éventuels peuvent être retirés, alors qu'un modèle propriétaire d'une entreprise peut être corrigé si une vulnérabilité venait à être découverte.

"La plupart des IA open source n'intègrent pas non plus de système de watermark [signature numérique] ou de label d'origine pour détecter si une création est artificielle et de quelle IA elle provient", relève David Evan Harris. "Cela signifie que ceux qui créent ces systèmes d'IA open source ne peuvent pas facilement être tenus pour responsables de leurs actions."

Des risques pour l'environnement… et l'humanité ?

Une autre crainte serait de voir l'empreinte écologique de l'IA grimper en flèche. L'open source favorise le partage des progrès dans l'IA, y compris ceux qui concernent l'efficacité énergétique. Mais en stimulant son adoption dans toute la société, cette méthode pourrait augmenter les risques d'"effet rebond" : les IA seront plus répandues et donc consommeront au total plus d'énergie qu'aujourd'hui, malgré les gains en efficacité.

Et le bilan est encore plus inquiétant pour ceux qui redoutent que de futures IA surpuissantes apportent des risques existentiels pour la société, qui pourraient aller selon les scénarios du remplacement massif des travailleurs à l'extinction de l'humanité, en passant par la conception d'armes chimiques ou la création d'IA capables de s'auto-répliquer. "Les décideurs ne comprennent pas les risques et écoutent juste le lobby des Big Tech", s'alarme ainsi Maxime Fournes, fondateur de l'association Pause IA. Sa solution ? "Mettre en place une coordination internationale avec des lignes rouges à ne pas dépasser, pour limiter les risques catastrophiques, et sensibiliser", explique l'ex-"data scientist" à franceinfo.

L'open source apporte-t-elle finalement plutôt des risques ou des opportunités ? "Je ne crois pas qu'on puisse se prononcer dans l'absolu", pense Stella Biderman. "Il faut vraiment regarder ça au cas par cas."

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.