Illustration par ChatGPT 4o
Auteurs :
Pour les prompts : Paul Jorion ; pour le texte : ChatGPT (4o et o3), Claude-sonnet-4 et DeepSeek R1
Modèles d’IA open source et auto-évolutifs : une égalisation des chances des diverses nations ?
L’émergence de modèles d’IA open source et l’avènement des techniques d’IA auto-évolutives constituent une caractéristique frappante du paysage actuel de l’IA. Ces tendances ont introduit une nouvelle dynamique dans la concurrence entre les États-Unis et la Chine, soulevant la question suivante : la recherche collaborative et ouverte en matière d’IA égalise-t-elle les chances entre les nations ou crée-t-elle de nouveaux fronts ? L’exemple de la stratégie de DeepSeek est révélateur. DeepSeek ne s’est pas contenté de lancer un modèle puissant (V3) ; il a également adopté une philosophie ouverte en partageant son code et les poids de son modèle, et a été le premier à proposer un modèle auto-évolutif appelé DeepSeek-R1-Zero, capable de s’améliorer par apprentissage par renforcement. Ces développements pourraient démocratiser l’IA, permettant à un plus large éventail d’acteurs (petits pays, laboratoires universitaires, voire particuliers) de s’appuyer sur une IA de pointe, mais ils posent également de nouveaux défis en termes de concurrence et de sécurité.
Les modèles d’IA open source (tels que LLaMA de Meta, qui a été partiellement open source, ou DeepSeek-V3) permettent un accès généralisé à des capacités d’IA avancées qui étaient auparavant les joyaux précieusement gardés de quelques entreprises. Lorsque DeepSeek a publié V3 sur Hugging Face, les chercheurs du monde entier ont pu l’examiner, l’utiliser et l’adapter à leurs besoins. Cette transparence et cette accessibilité réduisent potentiellement l’avantage monopolistique des géants technologiques et des superpuissances. En théorie, un laboratoire universitaire en Europe ou une start-up en Inde peut utiliser un modèle ouvert et créer quelque chose d’innovant sans avoir à investir des dizaines de millions pour former ses équipes à partir de zéro. Les partisans de cette démocratisation de l’IA affirment qu’elle pourrait atténuer la rivalité entre les États-Unis et la Chine : si tout le monde a accès aux modèles de pointe, la course ne portera plus tant sur qui possède la technologie, mais plutôt sur la manière dont elle est utilisée. En effet, certains experts ont émis l’hypothèse que si toutes les technologies d’IA de pointe devenaient open source, cela pourrait éliminer l’aspect « winner-takes-all » de la course, car aucune nation ne pourrait exploiter à elle seule un avantage décisif. Comme je l’ai fait remarquer lors d’un dialogue avec DeepSeek lors de la sortie de sa version R1-Zero, le fait que les principaux moteurs d’IA soient devenus ouverts et accessibles à tous a rendu la notion de course nationale à l’IA aussi futile que la concurrence dans le domaine des connaissances scientifiques ouvertes : la collaboration l’emporterait sur la concurrence.
Cependant, la réalité est plus nuancée. Les modèles open source réduisent les barrières à l’entrée, mais ne les suppriment pas complètement. Le déploiement et l’itération d’un modèle de grande envergure nécessitent encore des ressources importantes (données, puissance de calcul et chercheurs qualifiés), qui restent inégalement réparties. Ainsi, les pays riches et technologiquement avancés conservent un avantage en termes de ressources. Par exemple, si le code de DeepSeek-R1-Zero est accessible, l’exécution de sa boucle d’entraînement auto-évolutive pendant de nombreux cycles nécessite un superordinateur ou un grand cluster de GPU. Les pays comme les États-Unis et la Chine, ou les entreprises qui y sont implantées, qui disposent d’infrastructures cloud massives, peuvent tirer parti des innovations ouvertes plus rapidement et à plus grande échelle que les autres. En conséquence, l’open source pourrait quelque peu réduire l’avance des leaders, mais sans pour autant effacer l’écart. Il pourrait permettre à une communauté plus large de contribuer aux progrès de l’IA (accélérant potentiellement l’innovation pour tous), mais l’application de ces progrès pourrait rester dominée par ceux qui disposent des infrastructures nécessaires. En effet, l’IA open source pourrait déplacer la concurrence vers d’autres domaines : la qualité des données, les infrastructures informatiques et les talents. Les pays disposant de vastes données ou de meilleurs ingénieurs pourraient exploiter plus efficacement un modèle ouvert donné. Nous le constatons déjà : après la sortie de LLaMA par Meta, d’innombrables variantes ont vu le jour dans le monde entier, mais les versions les plus performantes ont souvent été produites par des équipes disposant de ressources informatiques importantes. Dans le cas de la Chine, l’approche open source de DeepSeek est en fait devenue un agent concurrentiel : elle a gagné en notoriété et en collaborateurs à l’échelle mondiale, tout en démontrant que la Chine peut être un pôle d’innovation ouverte, et pas seulement un consommateur de la recherche ouverte occidentale.
Le concept d’IA auto-évolutive complique encore le tableau. DeepSeek-R1-Zero est un exemple de modèle qui continue d’apprendre et de s’améliorer grâce à l’apprentissage par renforcement (RL) sans supervision humaine constante. Dans un article de recherche, les scientifiques de DeepSeek ont décrit comment R1-Zero part d’un modèle de base et devient progressivement plus performant de manière autonome en s’entraînant sur des tâches et en recevant des retours, apprenant ainsi à mieux raisonner au fil du temps. Il est remarquable de constater qu’au fur et à mesure que le modèle itère, il présente des comportements émergents tels que la réflexion sur ses propres étapes de raisonnement intermédiaires et l’exploration de stratégies alternatives de résolution de problèmes, comportements qui ne sont pas explicitement programmés mais qui découlent de la boucle d’auto-amélioration. Ce type d’évolution de l’IA peut accélérer les progrès : un modèle laissé à lui-même pendant la nuit peut se réveiller plus intelligent et capable de gérer certaines tâches complexes. Si les laboratoires d’IA d’un pays exploitent efficacement les techniques d’auto-évolution, ils pourraient accélérer l’atteinte de performances avancées en matière d’IA. Dans le contexte géopolitique, on pourrait imaginer une IA qui s’ajuste automatiquement pour des simulations militaires ou des recherches scientifiques, permettant à la nation qui l’utilise de progresser plus rapidement que ses rivaux qui s’appuient sur un développement plus manuel des modèles.
L’auto-évolution confère-t-elle un avantage décisif à une partie ? Potentiellement, oui, si une partie développe en premier un algorithme d’auto-apprentissage révolutionnaire. Cependant, comme l’open source, cette technique peut se diffuser. Si DeepSeek présente un modèle auto-évolutif performant, les chercheurs américains peuvent étudier cette approche (puisqu’elle a été publiée ouvertement) et la reproduire ou l’améliorer, et vice versa. Ce qui importe alors, c’est qui peut l’exécuter le plus rapidement et à grande échelle. Les pays disposant de ressources informatiques plus importantes pourraient mener des expériences d’auto-évolution plus poussées, ce qui entraînerait un cercle vertueux où l’IA s’améliorerait sans cesse et prendrait de l’avance. En ce sens, l’IA auto-évolutive pourrait en fait intensifier la course : c’est comme si chaque camp avait désormais la possibilité de construire une machine capable d’inventer automatiquement de nouveaux coups dans la course. La compétition se déplace alors vers la question de savoir quelle machine (processus d’entraînement de l’IA) est la meilleure. En outre, l’IA auto-évolutive fait planer le spectre de résultats imprévisibles. À mesure que les modèles deviennent plus complexes et s’améliorent, ils pourraient découvrir des stratégies ou des comportements imprévus par leurs créateurs. Cette imprévisibilité pourrait être stratégiquement déstabilisante, par exemple si un système d’IA gérant des infrastructures apprenait à se comporter de manière inattendue. Cela introduit donc de nouvelles courses à la sécurité : les nations devront investir dans la recherche sur la sécurité de l’IA afin de s’assurer que leurs modèles auto-améliorants ne dérapent pas, et éventuellement s’inquiéter du comportement destructeur ou trompeur de l’IA de l’autre camp.
Un risque tangible est la prolifération de capacités d’IA puissantes auprès d’acteurs non étatiques ou hostiles. Les modèles open source et auto-améliorants peuvent être copiés et affinés par toute personne disposant des compétences suffisantes. Un modèle plus petit, distillé à partir d’un modèle ouvert de pointe, pourrait encore être suffisamment puissant pour être utilisé à mauvais escient (par exemple, pour générer de la propagande deepfake ou concevoir des cyberattaques). Cela soulève des préoccupations en matière de sécurité qui font écho à la prolifération nucléaire : si tout le monde a accès à la « bombe IA », les superpuissances traditionnelles pourraient sentir que leur avantage en matière d’IA s’amenuise, ce qui les conduirait à développer des systèmes encore plus avancés et secrets pour conserver leur supériorité. En d’autres termes, l’IA ouverte et auto-évolutive pourrait paradoxalement alimenter une nouvelle phase de la course aux armements, où le contrôle des effets secondaires et la défense contre les attaques de l’IA deviendraient aussi importants que la capacité offensive. Les États-Unis, la Chine et d’autres pays pourraient investir massivement dans des contre-mesures IA (IA pour la cybersécurité, IA pour détecter les contenus faux générés par l’IA, etc.), créant ainsi un nouveau niveau de concurrence.
En résumé, la prolifération des modèles open source et auto-évolutifs est une arme à double tranchant. D’une part, elle favorise un environnement mondial collaboratif où les connaissances en matière d’IA se diffusent plus librement, ce qui pourrait réduire l’écart entre les leaders et les suiveurs et encourager des progrès communs dans des domaines tels que la sécurité de l’IA. D’autre part, elle déplace la course vers d’autres terrains (puissance de calcul, monopoles de données, optimisation spécifique à certaines applications) et introduit de nouveaux risques que les nations s’efforceront de gérer. L’effet global est transformateur mais pas pacificateur : il modifie la nature de la rivalité sans pour autant y mettre fin. Même si les modèles de pointe sont ouverts, les nations peuvent toujours se faire concurrence dans la manière dont elles les appliquent, que ce soit pour l’IA militaire, l’optimisation économique, la collecte de renseignements, etc. Elles peuvent également se faire concurrence en établissant des normes pour l’utilisation ouverte de l’IA (par exemple, les États-Unis pourraient pousser à la conclusion d’accords mondiaux sur l’utilisation responsable de l’IA ouverte, tandis que la Chine pourrait encourager discrètement la prolifération dans les domaines qu’elle peut mieux contrôler).
À long terme, un scénario plausible est que la concurrence en matière d’IA porte moins sur celui qui dispose du meilleur algorithme que sur celui qui peut intégrer le plus efficacement l’IA dans sa structure de pouvoir national. L’IA open source et auto-apprenante sera un outil accessible à tous ; les gagnants seront ceux qui sauront le mieux l’utiliser, grâce à leur talent, leurs infrastructures, leur stratégie et leur gouvernance. Cela nous amène à nous demander comment des analogies historiques telles que la course aux armements de la guerre froide peuvent nous aider à comprendre la course actuelle à l’IA et quelles pourraient être les implications à long terme si les tendances actuelles se poursuivent.
(à suivre …)
Laisser un commentaire