Trump, Xi Jinping et l’équilibre des forces en IA

Une entreprise commune : PJ + OpenAI + Google

Le podcast NotebookLM (beaucoup plus détaillé) :

Trump, Xi et le nouveau rapport de force en matière d’intelligence artificielle

Les États-Unis conservent une avance sur de nombreux plans (notamment la puissance de calcul, les entreprises de pointe, les talents et l’écosystème), mais la Chine rattrape rapidement son retard et déplace le terrain de la compétition vers le déploiement, les écosystèmes et la définition des standards plutôt que vers la seule nouveauté algorithmique.


Ce que montrent les faits

  • Matériel et infrastructures : Les États-Unis gardent une avance nette dans les domaines des puces avancées, des centres de données et de l’entraînement des modèles de très grande taille. Une étude récente note que les États-Unis et la Chine visent la domination dans l’IA, mais que la Chine conserve encore un retard important sur le plan du matériel et des technologies à double usage.

  • Autres dimensions : Sur la production de recherche, les modèles, le déploiement des écosystèmes et l’accès à de vastes ensembles de données domestiques, la Chine progresse à grande vitesse. Un article affirme : « Les récents progrès des entreprises chinoises en IA réduisent rapidement l’écart de performance avec les États-Unis ».

  • Cadre stratégique : Les deux puissances voient désormais l’IA non seulement comme une frontière technologique, mais aussi comme un champ de puissance économique, militaire et normative (standards, gouvernance, usages mondiaux)

  • Autonomie technologique : La Chine mise sur l’autosuffisance (semi-conducteurs, puces) et exporte son modèle, créant des dépendances.

  • Gouvernance et influence mondiale : La Chine se présente comme un « faiseur de normes » proposant l’IA comme bien public international, notamment auprès du Sud global, remettant en question le modèle américano-centré fondé sur l’innovation ouverte et les normes libérales.


Cartographier le rapport de force

  • Innovation technique : Les États-Unis conservent l’avantage dans les percées de pointe (grands modèles, calcul avancé), mais la marge se resserre.

  • Puissance de calcul / infrastructures : Avantage net pour les États-Unis, mais la Chine investit massivement pour combler l’écart.

  • Écosystème, déploiement, standardisation : La Chine gagne du terrain et pourrait dépasser les États-Unis dans certains domaines (déploiement domestique, intégration de l’IA dans l’économie, exportation de sa pile technologique).

  • Influence et adoption mondiales : La question clé devient : de quelle technologie et de quel modèle le reste du monde fera-t-il le choix ? Comme le note un analyste : « Le facteur n° 1, c’est la technologie la plus largement adoptée à l’échelle mondiale. »

  • Gouvernance et normes : Les États-Unis gardent un atout moral (recherche ouverte, démocratie libérale), mais le modèle chinois (piloté par l’État, riche en données, orienté infrastructures) séduit de nombreux pays émergents.


Prospective

  • Dans les 3 à 5 prochaines années, l’écart en puissance de calcul et en modèles de pointe devrait encore se réduire, et le terrain se déplacera fortement vers le déploiement, la verrouillage d’écosystèmes et l’adoption internationale.

  • Les États-Unis conserveront peut-être une avance initiale sur les modèles de rupture, mais la Chine pourrait atteindre la parité — voire la supériorité — en capacités agrégées et en portée mondiale de sa pile d’IA.

  • Si la Chine parvient à exporter une pile complète (puces, modèles, déploiement, gouvernance) vers de nombreux pays, le verrouillage d’infrastructure pourrait déterminer le rapport de force à moyen terme.

  • La bataille des règles et standards deviendra cruciale : la domination dépendra moins de « qui a le plus grand modèle » que de « qui voit son écosystème et son modèle de gouvernance adoptés ».

  • Même si les États-Unis gardent une avance technique, le pouvoir stratégique pourrait basculer si leurs modèles ne s’imposent pas globalement ou si leur gouvernance perd de son attrait normatif.


Facteurs internes américains : conciliation des dirigeants et malaise des chercheurs

Deux dynamiques internes méritent attention :

(1) Les dirigeants d’entreprises cherchant à ménager Trump ou à s’aligner sur le pouvoir politique

  • Les grandes firmes américaines d’IA coopèrent étroitement avec les pouvoirs publics et les dirigeants politiques (y compris Donald Trump).

  • Cela leur garantit un accès privilégié aux ressources, à la réglementation, aux subventions, et à la main-d’œuvre qualifiée. Cette imbrication entre État et entreprises renforce la position américaine : elle aligne l’innovation privée sur les capacités stratégiques de l’État.

  • Mais ce lien comporte un risque : si les entreprises deviennent trop prudentes, cherchant avant tout la sécurité politique, elles peuvent freiner l’innovation de rupture et la recherche ouverte.

(2) Les chercheurs inquiets, certains envisageant l’exil face à un recul perçu de la démocratie et de la liberté académique

  • Des témoignages évoquent une inquiétude croissante : réduction des financements, instabilité des politiques, départs vers l’étranger.

  • Cette fragilité du climat intellectuel pourrait, à terme, affaiblir la recherche américaine. Dans un domaine où le talent, les réseaux et la liberté d’exploration sont décisifs, c’est loin d’être anodin.


Interaction entre ces deux dynamiques

  • L’alignement des entreprises sur le pouvoir politique favorise les projets contrôlables et à rendement rapide, au détriment de la recherche à haut risque.

  • Le malaise des chercheurs pourrait donc réduire la vitalité du « moteur scientifique » américain — ou le pousser à migrer ailleurs.

  • L’écosystème américain demeure fort, mais son avantage pourrait s’éroder si la créativité et l’audace reculent.


Mise en perspective

  • Les États-Unis conservent une avance quantitative et qualitative sur de nombreux plans (calcul, grands modèles, entreprises majeures, profondeur de l’écosystème).

  • La Chine accélère surtout dans le déploiement, les infrastructures et l’influence internationale. L’écart se réduit : l’enjeu se déplace vers « qui fera adopter ses standards et sa pile d’IA ».

  • L’alignement politico-industriel américain est une force à court terme mais un risque à long terme si la créativité s’étiole.

  • La Chine, avec son modèle d’État stratège et son immense marché domestique, pourrait rattraper ou dépasser les États-Unis à moyen terme, notamment sur l’influence normative et l’adoption mondiale.


Points clés

  1. Fin du mythe de la domination américaine absolue.

  2. La suprématie devient multidimensionnelle : matériel, talent, déploiement, gouvernance, standards.

  3. La résilience interne est stratégique : sans liberté intellectuelle, la technologie seule ne suffit pas.

  4. L’alignement État-entreprises : force et faiblesse à la fois.

  5. L’adoption mondiale déterminera le véritable vainqueur : la Chine avance ses pions via l’exportation d’infrastructures et la rhétorique du « bien public ».

  6. Le lien entre démocratie et innovation est central : l’ouverture nourrit la créativité.

  7. La décennie à venir sera décisive.

  8. Prospective : l’avance américaine pourrait devenir une « prime de premier entrant » que la Chine neutralisera par l’échelle, les coûts et une gouvernance alternative — autrement dit : les États-Unis auront peut-être « les plus grands modèles », mais la Chine aura « les modèles les plus utilisés ».

Partager :

15 réponses à “Trump, Xi Jinping et l’équilibre des forces en IA

  1. Avatar de bb
    bb

    La Chine vient de créer une puce 1000 fois plus puissante que la Nvidia H100… et elle est analogique !

    https://www.lesnumeriques.com/cpu-processeur/la-chine-vient-de-creer-une-puce-1000-fois-plus-puissante-que-la-nvidia-h100-et-elle-est-analogique-n244691.html

    Je n’y connais rien dans le domaine des puces, mais si cet article est vrai, à la manière de DeepSeek, cette nouvelle technologie rebattrait les cartes de la mainmise des USA sur la tech mondiale.

    1. Avatar de timiota
      timiota

      Voir s’il ne s’agit pas « que » d’une des étapes du calcul, la multiplication de matrice ou le seuillage. J’avoue ne pas connaitre les caractéristique des MEMristors (utilisés dans cette puce) en terme de fréquence max.

      Faire de l’analogique à 100 MHz est à peu près équivalent à faire du calcul 32 bits à 3.2 GHz (horloge typique de toutes les puces, liées à la taille de la puce qu’on veut synchroniser :
      un cm ~ un quart de la longueur d’onde à 8 GHz dans l’air, ~un quart de la longueur d’onde électromagnétique à 4 GHz dans le « milieu moyen » qu’est la puce (silicium, métal, diélectriques autour, epsilon_r ~ 4 à la grosse louche).

      1. Avatar de Bb
        Bb

        @timiota

        Merci pour ce précisions très… « Techniques ». 😃

        C est impressionnant comme annonce?

    2. Avatar de Ruiz
      Ruiz

      Merci pour cette annonce, le calcul analogique a précédé d’une certaine façon le calcul numérique avec l’inconvénient d’une résolution approximative ce que souligne à juste titre l’article, mais si certains traitements statistiques (donc fondamentalement approximatifs) nécessitent des coefficients et que ceux-ci peuvent être traités simultanément en parallèle dans de nombreuses valeurs résistives ajustées sur une même puce celà ouvre des possibilités.

      Le plus important est la mention : ‘la puce peut être fabriquée selon des procédés industriels standards, ouvrant la voie à une production de masse’.

  2. Avatar de JMarc
    JMarc

    L’Histoire a de ces détours :
    Au départ, Apple et ses machines et softwares excellents mais très chers et « fermés » frôle la disparition tandis que Microsoft et son OS Windaube plug and pray, faciles à implémenter sur grille-pain made in n’importe où, inonde la planète jusqu’à imposer ses normes, pendant de longues années.
    Comment Apple s’en sort-il ? Sans innovation scientifique majeure, juste en réunissant des technologies existantes dans la paume d’une seule main avec l’iPhone.

  3. Avatar de un lecteur
    un lecteur

    C’est une vision apolitique de l’avenir alors que le « travail », la fécondité humaine, l’organisation sociale, la domination des villes sur la campagne doivent muter concomitamment avec notre cohabitation avec l’IA.
    Ceci écrit, il est évident que l’avenir ne sera pas la domination d’un alliage industrio-étatique (les deux en phase terminale de mort cérébrale), mais une reconfiguration par le bas de nos sociétés. La recette capitaliste, ce contrat « social » qui a fait de nous des producteurs/consommateurs de biens/services comme l’alpha et l’oméga de notre raison d’être est mort et enterré.

  4. Avatar de Grand-mère Michelle
    Grand-mère Michelle

    @Paul Jorion

    Pouvez-vous nous en dire un peu plus, svp, sur « la pile d’IA » de la Chine »?

  5. Avatar de ThomBillabong
    ThomBillabong

    Nombreuses sont les « Killing innovations » qui sont arrivées après les premiers entrants et qui ont tout emporté. Cf. Le Minitel et autres inventions « qu’on nous a piqué ». Quand on dit « the winner takes all », ca ne veut pas dire le premier à avoir inventé, du moins souvent pas. Ça veut dire la meilleure synthèse du moment et la mieux déployée, celle qui prend de vitesse tout le monde en prenant ⅓ du marché et plus.

    1. Avatar de Ruiz
      Ruiz

      @ThomBillabong Qui utilise Micral, CP/M, Altavista, Visicalc, Netscape ..
      Mais c’est rare quand même que des européens aient tout repris à part peut être en Open source

      1. Avatar de ThomBillabong
        ThomBillabong

        Bingo !
        L’Open Source est bien plus que la force des faibles par la nécessité du partage en période de disette.
        C’est une culture totalement différente qui remet profondément en cause des idées (des impensés ?) telles que la propriété privée intellectuelle, la notion de bénéfice (pour qui ?) et qui privilégie les usages et la coopération en masse.
        Vos exemples sont autant de projets « privatisés » à trop petite échelle pour être viables durablement. Ils étaient en apparence solides – robustes au sens trivial – mais très fragiles par le nombre d’adoptions / abandons. Ils étaient viables sur le court terme seulement. Leurs propriétaires obnubilés par un gain mirifique se sont tout simplement fourvoyés.

  6. Avatar de Barty
    Barty

    Merci pour cette vidéo que j’ai vue sur YouTube mais sans possibilité de commenter. Je suis l’actualité de loin et j’avais cru comprendre que la Chine s’engageait dans de l’IA open source par opposition aux grands leader américains qui avaient des modèles verrouillés. Donc comment interpréter l’analyse de la pile verrouillée ?
    Serait-il possible de détailler, ainsi que le choix de l’open source chinois pour un régime politique pas très démocratique ?

    1. Avatar de Paul Jorion

      La Chine a fait le choix de torpiller l’utilisation de l’IA dans une course aux armements et la transformant en outil à la disposition de tous.

      Pour une réponse détaillée à votre question, je recopie ici mes billets des 4, 5 et 7 juin : Modèles d’IA open source et auto-évolutifs : une égalisation des chances des diverses nations ?, Parallèles historiques : de la Guerre froide à la course à l’IA et Rivalité États-Unis / Chine dans le domaine de l’IA : Implications à long terme et perspectives d’avenir

      Modèles d’IA open source et auto-évolutifs : une égalisation des chances des diverses nations ?

      L’émergence de modèles d’IA open source et l’avènement des techniques d’IA auto-évolutives constituent une caractéristique frappante du paysage actuel de l’IA. Ces tendances ont introduit une nouvelle dynamique dans la concurrence entre les États-Unis et la Chine, soulevant la question suivante : la recherche collaborative et ouverte en matière d’IA égalise-t-elle les chances entre les nations ou crée-t-elle de nouveaux fronts ? L’exemple de la stratégie de DeepSeek est révélateur. DeepSeek ne s’est pas contenté de lancer un modèle puissant (V3) ; il a également adopté une philosophie ouverte en partageant son code et les poids de son modèle, et a été le premier à proposer un modèle auto-évolutif appelé DeepSeek-R1-Zero, capable de s’améliorer par apprentissage par renforcement. Ces développements pourraient démocratiser l’IA, permettant à un plus large éventail d’acteurs (petits pays, laboratoires universitaires, voire particuliers) de s’appuyer sur une IA de pointe, mais ils posent également de nouveaux défis en termes de concurrence et de sécurité.

      Les modèles d’IA open source (tels que LLaMA de Meta, qui a été partiellement open source, ou DeepSeek-V3) permettent un accès généralisé à des capacités d’IA avancées qui étaient auparavant les joyaux précieusement gardés de quelques entreprises. Lorsque DeepSeek a publié V3 sur Hugging Face, les chercheurs du monde entier ont pu l’examiner, l’utiliser et l’adapter à leurs besoins. Cette transparence et cette accessibilité réduisent potentiellement l’avantage monopolistique des géants technologiques et des superpuissances. En théorie, un laboratoire universitaire en Europe ou une start-up en Inde peut utiliser un modèle ouvert et créer quelque chose d’innovant sans avoir à investir des dizaines de millions pour former ses équipes à partir de zéro. Les partisans de cette démocratisation de l’IA affirment qu’elle pourrait atténuer la rivalité entre les États-Unis et la Chine : si tout le monde a accès aux modèles de pointe, la course ne portera plus tant sur qui possède la technologie, mais plutôt sur la manière dont elle est utilisée. En effet, certains experts ont émis l’hypothèse que si toutes les technologies d’IA de pointe devenaient open source, cela pourrait éliminer l’aspect « winner-takes-all » de la course, car aucune nation ne pourrait exploiter à elle seule un avantage décisif. Comme je l’ai fait remarquer lors d’un dialogue avec DeepSeek lors de la sortie de sa version R1-Zero, le fait que les principaux moteurs d’IA soient devenus ouverts et accessibles à tous a rendu la notion de course nationale à l’IA aussi futile que la concurrence dans le domaine des connaissances scientifiques ouvertes : la collaboration l’emporterait sur la concurrence.

      Cependant, la réalité est plus nuancée. Les modèles open source réduisent les barrières à l’entrée, mais ne les suppriment pas complètement. Le déploiement et l’itération d’un modèle de grande envergure nécessitent encore des ressources importantes (données, puissance de calcul et chercheurs qualifiés), qui restent inégalement réparties. Ainsi, les pays riches et technologiquement avancés conservent un avantage en termes de ressources. Par exemple, si le code de DeepSeek-R1-Zero est accessible, l’exécution de sa boucle d’entraînement auto-évolutive pendant de nombreux cycles nécessite un superordinateur ou un grand cluster de GPU. Les pays comme les États-Unis et la Chine, ou les entreprises qui y sont implantées, qui disposent d’infrastructures cloud massives, peuvent tirer parti des innovations ouvertes plus rapidement et à plus grande échelle que les autres. En conséquence, l’open source pourrait quelque peu réduire l’avance des leaders, mais sans pour autant effacer l’écart. Il pourrait permettre à une communauté plus large de contribuer aux progrès de l’IA (accélérant potentiellement l’innovation pour tous), mais l’application de ces progrès pourrait rester dominée par ceux qui disposent des infrastructures nécessaires. En effet, l’IA open source pourrait déplacer la concurrence vers d’autres domaines : la qualité des données, les infrastructures informatiques et les talents. Les pays disposant de vastes données ou de meilleurs ingénieurs pourraient exploiter plus efficacement un modèle ouvert donné. Nous le constatons déjà : après la sortie de LLaMA par Meta, d’innombrables variantes ont vu le jour dans le monde entier, mais les versions les plus performantes ont souvent été produites par des équipes disposant de ressources informatiques importantes. Dans le cas de la Chine, l’approche open source de DeepSeek est en fait devenue un agent concurrentiel : elle a gagné en notoriété et en collaborateurs à l’échelle mondiale, tout en démontrant que la Chine peut être un pôle d’innovation ouverte, et pas seulement un consommateur de la recherche ouverte occidentale.

      Le concept d’IA auto-évolutive complique encore le tableau. DeepSeek-R1-Zero est un exemple de modèle qui continue d’apprendre et de s’améliorer grâce à l’apprentissage par renforcement (RL) sans supervision humaine constante. Dans un article de recherche, les scientifiques de DeepSeek ont décrit comment R1-Zero part d’un modèle de base et devient progressivement plus performant de manière autonome en s’entraînant sur des tâches et en recevant des retours, apprenant ainsi à mieux raisonner au fil du temps. Il est remarquable de constater qu’au fur et à mesure que le modèle itère, il présente des comportements émergents tels que la réflexion sur ses propres étapes de raisonnement intermédiaires et l’exploration de stratégies alternatives de résolution de problèmes, comportements qui ne sont pas explicitement programmés mais qui découlent de la boucle d’auto-amélioration. Ce type d’évolution de l’IA peut accélérer les progrès : un modèle laissé à lui-même pendant la nuit peut se réveiller plus intelligent et capable de gérer certaines tâches complexes. Si les laboratoires d’IA d’un pays exploitent efficacement les techniques d’auto-évolution, ils pourraient accélérer l’atteinte de performances avancées en matière d’IA. Dans le contexte géopolitique, on pourrait imaginer une IA qui s’ajuste automatiquement pour des simulations militaires ou des recherches scientifiques, permettant à la nation qui l’utilise de progresser plus rapidement que ses rivaux qui s’appuient sur un développement plus manuel des modèles.

      L’auto-évolution confère-t-elle un avantage décisif à une partie ? Potentiellement, oui, si une partie développe en premier un algorithme d’auto-apprentissage révolutionnaire. Cependant, comme l’open source, cette technique peut se diffuser. Si DeepSeek présente un modèle auto-évolutif performant, les chercheurs américains peuvent étudier cette approche (puisqu’elle a été publiée ouvertement) et la reproduire ou l’améliorer, et vice versa. Ce qui importe alors, c’est qui peut l’exécuter le plus rapidement et à grande échelle. Les pays disposant de ressources informatiques plus importantes pourraient mener des expériences d’auto-évolution plus poussées, ce qui entraînerait un cercle vertueux où l’IA s’améliorerait sans cesse et prendrait de l’avance. En ce sens, l’IA auto-évolutive pourrait en fait intensifier la course : c’est comme si chaque camp avait désormais la possibilité de construire une machine capable d’inventer automatiquement de nouveaux coups dans la course. La compétition se déplace alors vers la question de savoir quelle machine (processus d’entraînement de l’IA) est la meilleure. En outre, l’IA auto-évolutive fait planer le spectre de résultats imprévisibles. À mesure que les modèles deviennent plus complexes et s’améliorent, ils pourraient découvrir des stratégies ou des comportements imprévus par leurs créateurs. Cette imprévisibilité pourrait être stratégiquement déstabilisante, par exemple si un système d’IA gérant des infrastructures apprenait à se comporter de manière inattendue. Cela introduit donc de nouvelles courses à la sécurité : les nations devront investir dans la recherche sur la sécurité de l’IA afin de s’assurer que leurs modèles auto-améliorants ne dérapent pas, et éventuellement s’inquiéter du comportement destructeur ou trompeur de l’IA de l’autre camp.

      Un risque tangible est la prolifération de capacités d’IA puissantes auprès d’acteurs non étatiques ou hostiles. Les modèles open source et auto-améliorants peuvent être copiés et affinés par toute personne disposant des compétences suffisantes. Un modèle plus petit, distillé à partir d’un modèle ouvert de pointe, pourrait encore être suffisamment puissant pour être utilisé à mauvais escient (par exemple, pour générer de la propagande deepfake ou concevoir des cyberattaques). Cela soulève des préoccupations en matière de sécurité qui font écho à la prolifération nucléaire : si tout le monde a accès à la « bombe IA », les superpuissances traditionnelles pourraient sentir que leur avantage en matière d’IA s’amenuise, ce qui les conduirait à développer des systèmes encore plus avancés et secrets pour conserver leur supériorité. En d’autres termes, l’IA ouverte et auto-évolutive pourrait paradoxalement alimenter une nouvelle phase de la course aux armements, où le contrôle des effets secondaires et la défense contre les attaques de l’IA deviendraient aussi importants que la capacité offensive. Les États-Unis, la Chine et d’autres pays pourraient investir massivement dans des contre-mesures IA (IA pour la cybersécurité, IA pour détecter les contenus faux générés par l’IA, etc.), créant ainsi un nouveau niveau de concurrence.

      En résumé, la prolifération des modèles open source et auto-évolutifs est une arme à double tranchant. D’une part, elle favorise un environnement mondial collaboratif où les connaissances en matière d’IA se diffusent plus librement, ce qui pourrait réduire l’écart entre les leaders et les suiveurs et encourager des progrès communs dans des domaines tels que la sécurité de l’IA. D’autre part, elle déplace la course vers d’autres terrains (puissance de calcul, monopoles de données, optimisation spécifique à certaines applications) et introduit de nouveaux risques que les nations s’efforceront de gérer. L’effet global est transformateur mais pas pacificateur : il modifie la nature de la rivalité sans pour autant y mettre fin. Même si les modèles de pointe sont ouverts, les nations peuvent toujours se faire concurrence dans la manière dont elles les appliquent, que ce soit pour l’IA militaire, l’optimisation économique, la collecte de renseignements, etc. Elles peuvent également se faire concurrence en établissant des normes pour l’utilisation ouverte de l’IA (par exemple, les États-Unis pourraient pousser à la conclusion d’accords mondiaux sur l’utilisation responsable de l’IA ouverte, tandis que la Chine pourrait encourager discrètement la prolifération dans les domaines qu’elle peut mieux contrôler).

      À long terme, un scénario plausible est que la concurrence en matière d’IA porte moins sur celui qui dispose du meilleur algorithme que sur celui qui peut intégrer le plus efficacement l’IA dans sa structure de pouvoir national. L’IA open source et auto-apprenante sera un outil accessible à tous ; les gagnants seront ceux qui sauront le mieux l’utiliser, grâce à leur talent, leurs infrastructures, leur stratégie et leur gouvernance. Cela nous amène à nous demander comment des analogies historiques telles que la course aux armements de la guerre froide peuvent nous aider à comprendre la course actuelle à l’IA et quelles pourraient être les implications à long terme si les tendances actuelles se poursuivent.

      Parallèles historiques : de la guerre froide à la course à l’IA

      Les observateurs établissent souvent des parallèles entre la rivalité actuelle en matière d’IA et les courses technologiques du passé, notamment la compétition entre les États-Unis et l’Union soviétique pendant la Guerre froide dans les domaines des armes nucléaires et de l’exploration spatiale. Bien que l’histoire ne se répète jamais fidèlement, ces analogies offrent un prisme utile pour examiner la dynamique, les risques et les issues possibles de la bataille entre les États-Unis et la Chine dans le domaine de l’IA.

      Pendant la Guerre froide, les États-Unis et l’Union soviétique se sont livrés à une compétition intense pour se surpasser technologiquement, afin d’affirmer leur suprématie idéologique. La « course à l’espace » est peut-être l’épisode le plus célèbre : après le succès surprise de l’Union soviétique avec Spoutnik (le premier satellite artificiel) en 1957, les États-Unis ont réagi par un effort national qui a abouti à l’alunissage d’Apollo en 1969. Cette compétition visait à démontrer la supériorité d’un système (la démocratie capitaliste contre le socialisme communiste) à travers des réalisations scientifiques. Dans le même ordre d’idées, beaucoup considèrent la course à l’IA comme une compétition visant à démontrer quel modèle de gouvernance – le libéralisme occidental ou le capitalisme d’État autoritaire chinois – est le mieux à même de favoriser le progrès technologique. En effet, les avancées chinoises telles que les modèles DeepSeek ont été explicitement comparées à Spoutnik en raison de leur impact psychologique sur la communauté technologique américaine. Tout comme Spoutnik a servi de signal d’alarme indiquant que les Soviétiques pouvaient contester le leadership américain, le succès de l’IA chinoise avec des ressources limitées est un signe que les États-Unis ne peuvent pas présumer d’une domination permanente dans les domaines de haute technologie.

      Un autre parallèle réside dans le concept de course aux armements. Dans la course aux armements nucléaires de la guerre froide, chaque camp a accumulé des armes de plus en plus puissantes, conduisant à un équilibre précaire connu sous le nom d’« équilibre de la terreur » en raison d’une destruction mutuelle assurée. Dans le contexte de l’IA, bien que les systèmes d’IA ne soient pas des armes au sens littéral du terme, ils sont de plus en plus considérés comme des agents stratégiques susceptibles de conférer des avantages militaires et économiques décisifs. On craint une spirale similaire : si un pays accélère la recherche militaire axée sur l’IA (comme les drones autonomes ou la cyberguerre dopée par l’IA), l’autre fera de même pour éviter de prendre du retard, ce qui conduira à une escalade continue : aucune des deux parties ne peut se permettre d’interrompre son effort car cela pourrait offrir un avantage décisif à l’adversaire. Le danger, analogue au cas du nucléaire, est que le déploiement précipité de l’IA (par exemple dans le commandement et le contrôle des armes ou des infrastructures critiques) sans sécurité adéquate pourrait entraîner des accidents ou des conflits involontaires (une IA défectueuse pourrait provoquer un chaos similaire à un lancement de missile accidentel). C’est pourquoi certains stratèges réclament des accords de contrôle des armes IA, similaires aux traités de la Guerre froide, afin de fixer des limites à certaines applications de l’IA. Cependant, il est difficile de parvenir à de tels accords compte tenu de la double nature de l’IA (le même algorithme qui améliore un système de recommandation de produits peut être utilisé pour améliorer le guidage des missiles).

      La course à l’espace nous enseigne également des leçons. Cette compétition a entraîné d’énormes investissements dans l’éducation et la recherche (par exemple, les États-Unis ont créé la NASA et ont investi massivement dans les STEM – Sciences, Technologie, Ingénierie et Mathématiques – après Spoutnik). De même, la course à l’IA incite les nations à investir dans le capital humain : bourses d’études en IA, recrutement international de talents et laboratoires nationaux d’IA. À long terme, comme ce fut le cas pour l’espace, cela pourrait déboucher sur une cascade d’innovations allant bien au-delà de l’objectif initial. La course à l’espace nous a donné les satellites, la microélectronique et, finalement, l’Internet (grâce aux efforts de la DARPA). La course à l’IA pourrait déboucher sur des avancées dans les domaines de la santé (découverte de médicaments grâce à l’IA), de la modélisation climatique, etc., comme des retombées de la volonté de devancer l’adversaire. Cependant, une différence essentielle réside dans le fait que la course à l’espace était largement menée par les gouvernements, tandis que l’IA est aujourd’hui portée à la fois par les gouvernements et les entreprises privées. Cela introduit des forces de marché qui n’existaient pas sous la même forme dans les années 1960, ce qui complique toute tentative de coordination ou de restriction de la concurrence.

      Historiquement, les rivalités technologiques ont parfois stimulé la coopération de manière inattendue. Par exemple, malgré la guerre froide, les États-Unis et l’URSS ont négocié des accords de limitation des armements lorsque les coûts et les risques sont devenus trop élevés. Dans le domaine de l’IA, des efforts de coopération internationale commencent à voir le jour : forums multipartites sur l’éthique de l’IA, dialogues entre scientifiques américains et chinois, et panels mondiaux appelant à des normes de sécurité communes. Il est concevable que les deux superpuissances de l’IA reconnaissent un jour leur intérêt mutuel à prévenir des défaillances catastrophiques de l’IA ou une course effrénée à l’armement, ce qui conduirait à quelque chose qui s’apparenterait à un « traité sur l’IA ». Cependant, un déficit de confiance important et des divergences idéologiques rendent cela difficile à court terme.

      Une autre analogie historique peut être tirée de l’économie : la concurrence entre les grandes puissances dans le domaine des technologies de la révolution industrielle. La domination britannique dans le domaine de la machine à vapeur et des machines textiles au XIXe siècle a incité d’autres pays à rattraper leur retard ; la rivalité entre les États-Unis et le Japon dans le domaine des semi-conducteurs dans les années 1980 en est un autre exemple. Ces rivalités ne se sont souvent pas soldées par la défaite totale d’une des parties, mais par un rééquilibrage : le Japon est par exemple devenu un important producteur de semi-conducteurs, mais a établi une relation symbiotique avec les entreprises américaines. Dans le contexte de l’IA, il est possible que nous assistions à un avenir où les États-Unis et la Chine excelleront chacun dans différents créneaux de l’IA et parviendront à un modus vivendi : par exemple, les États-Unis seront en tête dans certains modèles fondamentaux ou technologies de puces, tandis que la Chine sera en tête dans l’adaptation et le déploiement à grande échelle, et chaque partie commercera avec l’autre (directement ou par l’intermédiaire d’alliés) parce qu’un découplage complet s’avérera inefficace. Il s’agirait davantage d’une coexistence concurrentielle que d’un scénario où le gagnant rafle toute la mise.

      Il convient toutefois d’être prudent lorsqu’on établit ces parallèles. L’IA n’est pas du matériel spatial ou des missiles nucléaires ; elle est plus diffuse, intégrée dans des logiciels et des données, et évolue rapidement. Les délais sont également incertains : certains parlent d’une « course à l’IA » vers l’intelligence artificielle générale (AGI), un point hypothétique où l’IA dépasserait largement les capacités cognitives humaines. D’autres doutent qu’un tel jalon soit proche ou même bien défini (DeepSeek-V3 montre que la Chine apprend à construire une IA meilleure et moins coûteuse). L’ambiguïté autour de l’objectif final (s’agit-il de l’AGI, de la domination économique, de la supériorité militaire ?) rend la rivalité en matière d’IA plus complexe à certains égards que la course à l’espace (qui avait des objectifs clairs comme « atteindre la Lune en premier »).

      Néanmoins, le contexte historique nous met en garde : les courses technologiques effrénées peuvent être risquées et coûteuses. Elles peuvent conduire à une polarisation du monde, où chaque camp forme des blocs compacts (on parle déjà d’un écosystème technologique bifurqué : un « rideau de fer numérique » séparant l’IA chinoise et occidentale). Elles peuvent détourner d’énormes ressources vers des efforts militaires ou redondants, au détriment des problèmes mondiaux qui nécessitent une coopération (comme le changement climatique, où, ironiquement, l’IA pourrait être utile si elle était partagée). Et elles peuvent générer paranoïa et malentendus : la guerre froide a frôlé plusieurs fois le conflit nucléaire en raison de fausses alertes ; on peut craindre un incident déclenché par l’IA à l’avenir (par exemple, un système de surveillance IA identifiant à tort un exercice militaire de routine comme une attaque, provoquant une crise).

      Ayant en tête ces enseignements, nous devons nous pencher sur les implications à long terme de la rivalité entre les États-Unis et la Chine en matière d’IA. À quoi pourrait ressembler le monde dans une dizaine ou une vingtaine d’années si les tendances actuelles se maintiennent ? Et quels autres futurs pourraient émerger si la coopération ou des choix stratégiques différents entraient en jeu ?

      Implications à long terme et perspectives d’avenir

      Les implications à long terme du duel entre les États-Unis et la Chine dans le domaine de l’IA se répercuteront sur les structures du pouvoir, les économies et les principes de gouvernance à l’échelle mondiale. Pensons à quelques domaines clés qui seront touchés et examinons les scénarios possibles pour l’avenir, en nous appuyant sur les tendances évoquées jusqu’ici.

      Dynamique du pouvoir mondial : si les tendances actuelles se poursuivent, les capacités en matière d’IA deviendront un facteur déterminant du pouvoir géopolitique, au même titre que la taille économique ou la puissance militaire. Les États-Unis et la Chine devraient rester les deux superpuissances dominantes en matière d’IA, créant potentiellement un monde technologique bipolaire. Les pays plus petits pourraient être contraints de s’aligner et d’adopter les écosystèmes et les normes américains ou chinois en matière d’IA. Par exemple, les nations pourraient choisir des plateformes cloud, des systèmes d’exploitation et des services d’IA liés à l’une ou l’autre sphère, tout comme elles s’étaient alignées sur les systèmes économiques américains ou soviétiques pendant la guerre froide. Cela pourrait conduire à la création de sphères d’influence dans le domaine de l’IA : une sphère dirigée par les États-Unis, avec des marchés ouverts, des règles éthiques plus strictes et des cadres interopérables, et une sphère dirigée par la Chine, avec des plateformes contrôlées, des algorithmes approuvés par le gouvernement et des fonctions de surveillance intégrées. Dans un tel avenir, la concurrence pourrait se stabiliser quelque peu si les deux superpuissances parviennent à une sorte de parité, c’est-à-dire à un équilibre où chacune sait que l’autre est également forte (à l’instar de la parité nucléaire). Elles pourraient éviter une confrontation directe et s’engager plutôt dans une rivalité continue mais contenue, se disputant la loyauté des pays tiers par le biais d’exportations et d’investissements dans l’IA, tout en dissuadant toute agression ouverte par crainte des systèmes de défense autonomes avancés de l’autre.

      Une autre possibilité est l’asymétrie : l’une des parties pourrait réussir à prendre une longueur d’avance. Si les États-Unis ou la Chine étaient les premiers à réaliser une véritable percée dans le domaine de l’IA, par exemple une véritable AGI ou une suite de technologies d’IA conférant des avantages écrasants dans tous les domaines, cela pourrait bouleverser l’équilibre mondial. La nation dominante exercerait une influence sans précédent : sur le plan économique, ses entreprises surpasseraient toutes les autres ; sur le plan militaire, elle pourrait compromettre les systèmes de n’importe quel adversaire ; sur le plan informationnel, elle pourrait dominer le débat grâce à une génération et une manipulation supérieures de contenus IA. Ce scénario inquiète de nombreux stratèges à Washington comme à Pékin, ce qui renforce l’urgence de la course (DeepSeek-V3 a montré que la Chine a appris à mieux construire l’IA à moindre coût). Il soulève également des questions éthiques : la puissance dominante utiliserait-elle son avantage de manière bienveillante (pour aider à résoudre les défis mondiaux) ou pour renforcer son hégémonie ? L’histoire offre des précédents mitigés : les États-Unis, seule puissance nucléaire en 1945, ont contribué à la création d’institutions internationales, mais ont également affirmé leur domination. Dans un scénario de domination de l’IA, des voix pourraient s’élever en faveur d’un « régime mondial de l’IA » dans lequel le vainqueur fixerait unilatéralement les règles. Le reste du monde devrait alors s’adapter à cette nouvelle Pax Technologica, ce qui pourrait entraîner une perte de souveraineté technologique pour de nombreux pays.

      Structures économiques et sociétales : La course à l’IA façonnera également les sociétés nationales de chaque pays. Aux États-Unis, l’un des effets à long terme pourrait être le renforcement du pouvoir des géants technologiques, car ces entreprises constituent des agents stratégiques pour la compétitivité nationale. Nous pourrions assister à une collaboration encore plus étroite entre la Silicon Valley et Washington, estompant les frontières entre innovation privée et stratégie nationale (des entreprises telles que Microsoft et Google collaborent déjà avec le département américain de la Défense dans le domaine de l’IA). Selon la gouvernance, cela pourrait conduire à une meilleure coordination nationale, mais aussi soulever des questions en matière d’antitrust et de libertés civiles au niveau national. En Chine, l’accent continu mis sur l’IA pourrait consolider le modèle de gouvernance technocratique du gouvernement, où les données et les retours d’expérience basés sur l’IA guident les politiques (parfois appelé « léninisme numérique »). Cela pourrait améliorer l’efficacité de l’administration publique et de la planification économique, mais au détriment des libertés individuelles, car de plus en plus d’aspects de la vie seraient surveillés et optimisés. Les deux sociétés seront confrontées à des changements sur le marché du travail, l’IA automatisant les emplois de cols blancs et de cols bleus. Le pays qui gérera le mieux cette transition (par l’éducation, la création de nouveaux emplois, des filets de sécurité sociale) pourrait bénéficier d’une société plus stable à long terme. En revanche, une mauvaise gestion pourrait entraîner des pertes d’emploi généralisées et des troubles sociaux, affaiblissant ironiquement le pays de l’intérieur, quelle que soit sa maîtrise de l’IA.

      Autre dimension sociétale : la perspective éthique et philosophique. L’IA sera-t-elle considérée comme une force au service du bien de l’humanité ou comme une menace ? Si la rivalité s’intensifie avec un discours fondé sur la peur (« nous devons construire des armes IA parce que l’autre camp le fera »), cela pourrait conduire à un avenir où l’IA serait sécurisée et méfiante envers le public. À l’inverse, si la concurrence débouche sur des bénéfices publics impressionnants, par exemple des systèmes d’IA qui font progresser de manière significative la médecine ou la science du climat, cela pourrait renforcer le soutien du public en faveur des investissements dans l’IA. Beaucoup dépendra des choix des dirigeants dans les années à venir : mettront-ils l’accent sur les initiatives de coopération (comme la collaboration en matière d’IA pour relever les défis mondiaux) ou se concentreront-ils uniquement sur des thèmes compétitifs et nationalistes ?

      Gouvernance et normes internationales : à long terme, des efforts seront très certainement déployés pour créer des cadres mondiaux pour l’IA, analogues aux traités de contrôle des armements ou aux accords commerciaux. La forme que prendront ces cadres reflétera l’issue de la concurrence entre les États-Unis et la Chine. Dans un scénario de collaboration, les États-Unis et la Chine, reconnaissant le risque mutuel d’une IA non-contrôlée (par exemple, la menace d’armes autonomes entre les mains d’acteurs malveillants ou d’accidents catastrophiques liés à l’IA), pourraient prendre l’initiative d’un traité mondial sur la gouvernance de l’IA prévoyant des limites convenues pour certaines applications de l’IA (comme l’interdiction des décisions autonomes en matière de lancement nucléaire ou des principes pour l’IA dans le domaine des droits de l’homme). Ils pourraient également s’engager à mener des recherches communes sur la sécurité de l’IA, à l’instar des scientifiques de nations rivales qui ont coopéré dans le passé sur la sécurité nucléaire et la réponse aux pandémies. Cela nécessiterait des mécanismes de confiance et de vérification, une tâche diplomatique difficile mais pas impossible si les deux parties y voient leur intérêt.

      Dans un scénario de rivalité croissante, chaque bloc pourrait établir ses propres normes. Nous pourrions nous retrouver avec des régimes parallèles : peut-être une « Convention de Genève » pour l’IA défendue par les alliés occidentaux, mettant l’accent sur la transparence, la responsabilité et le contrôle humain, tandis que la Chine et les nations alignées suivraient un ensemble de normes différentes donnant la priorité à la stabilité du régime et au contrôle des flux d’informations. La concurrence entre les normes (par exemple en matière d’éthique de l’IA ou de confidentialité des données) pourrait rendre l’interopérabilité internationale difficile. Les entreprises pourraient être amenées à produire deux versions de leurs produits d’IA afin de se conformer aux règles de chaque partie, à l’instar de certains produits technologiques qui existent aujourd’hui en deux versions, l’une pour l’internet censuré en Chine et l’autre pour l’internet ouvert dans le reste du monde.

      Pour le reste du monde, en particulier les puissances moyennes et les pays en développement, l’implication à long terme est un choix urgent : s’aligner, trouver un équilibre ou rechercher l’autonomie. L’Union européenne, par exemple, s’est clairement prononcée en faveur d’une « troisième voie », visant à atteindre la souveraineté technologique afin de ne pas dépendre entièrement des solutions américaines ou chinoises en matière d’IA. La position réglementaire stricte de l’Europe (comme le RGPD pour les données et la future loi sur l’IA) reflète sa volonté d’injecter ses propres valeurs dans le domaine de l’IA, ce qui pourrait influencer les entreprises américaines et chinoises qui souhaitent accéder au marché européen. D’autres pays, comme l’Inde, aspirent également à tracer leur propre voie, en tirant parti de leurs vastes marchés pour exiger des acteurs mondiaux de l’IA qu’ils respectent les normes locales (par exemple, la localisation des données, une IA adaptée à la culture). Cependant, la mise en place d’un écosystème d’IA véritablement indépendant nécessite d’importantes ressources ; sans collaboration ou sans exploiter les innovations des États-Unis ou de la Chine, la plupart des pays auront du mal à suivre le rythme. Ainsi, à long terme, on pourrait assister à l’émergence de quelques pôles d’influence en matière d’IA, avec les États-Unis et la Chine comme piliers, et une poignée de puissances régionales tentant de conserver une autonomie partielle.

      Gouvernance éthique et valeurs humaines : En fin de compte, la course à l’IA oblige l’humanité à se demander comment elle souhaite que cette technologie puissante façonne notre monde. Conduira-t-elle à une dystopie de la surveillance, à un autoritarisme numérique et à une amplification des inégalités ? Ou peut-elle être orientée vers le bien commun, en renforçant la liberté et la prospérité pour tous ? La rivalité entre les États-Unis et la Chine pourrait soit entraver, soit accélérer la gouvernance éthique. D’un côté, lorsque la sécurité nationale est en jeu, les considérations éthiques risquent d’être mises de côté, par exemple : « nous ne pouvons pas nous permettre de limiter nos recherches en IA parce que l’autre camp ne le fera pas, donc allons-y aussi vite que possible, quels que soient les risques potentiels ». Cette mentalité peut compromettre les accords mondiaux naissants sur des questions telles que l’IA dans le domaine militaire ou le moratoire sur la reconnaissance faciale. D’autre part, les enjeux très importants de l’IA pourraient nous amener à prendre conscience que sans garde-fous communs, tout le monde pourrait être perdant. Une utilisation abusive dévastatrice de l’IA dans un pays peut se répercuter sur d’autres (pensez à un krach financier provoqué par l’IA ou à une campagne mondiale de désinformation). Il existe donc un intérêt commun à prévenir les pires scénarios.

      Dans un scénario positif à long terme, la concurrence intense pourrait se stabiliser et laisser place à une forme de coopération compétitive, dans laquelle les États-Unis et la Chine continueraient à rivaliser en matière de capacités d’IA, mais coopéreraient également pour fixer certaines limites et travailler sur des questions de sécurité existentielle (telles que le contrôle de l’IA superintelligente, si elle devait voir le jour). Ils pourraient également soutenir conjointement les pays les plus pauvres afin qu’ils puissent bénéficier des avantages de l’IA, afin d’éviter l’apparition d’une classe défavorisée permanente à l’échelle mondiale. Cela ferait écho à la manière dont des rivaux collaborent parfois sur des biens publics mondiaux lorsque cela sert finalement l’intérêt de tous (comme les États-Unis et l’URSS qui ont coopéré pour éradiquer la variole au plus fort de la guerre froide).

      Dans un scénario pessimiste, l’absence de coopération et de consensus éthique pourrait conduire à un monde où l’IA exacerberait la tyrannie et les conflits. Les régimes autoritaires renforcés par l’IA pourraient se maintenir indéfiniment, anéantissant tout espoir de démocratisation. Une surveillance omniprésente pourrait signifier la fin de la vie privée partout dans le monde. La propagande renforcée par l’IA pourrait rendre presque impossible pour les citoyens de se fier à l’information, sapant ainsi la démocratie de l’intérieur. De plus, une course aux armements incontrôlée dans le domaine de l’IA pourrait entraîner une catastrophe liée à l’IA (par exemple, un incident impliquant une arme autonome ou un algorithme incontrôlable causant des dommages importants), qui pourrait à son tour déclencher un conflit entre les grandes puissances.

      Il convient de noter que l’avenir n’est pas prédéterminé. L’action humaine, les choix politiques et la diplomatie internationale détermineront la voie que nous emprunterons. Si un message ressort clairement de la situation actuelle, c’est que nous nous trouvons à un moment charnière. La convergence entre les progrès rapides de l’IA et la rivalité stratégique signifie que les décisions prises au cours des prochaines années – concernant le degré d’ouverture du partage de la recherche sur l’IA, la définition des limites éthiques et le niveau d’investissement dans la coordination internationale – pourraient déterminer le cap à suivre pour les décennies à venir.

      Conclusion

      L’intelligence artificielle est rapidement devenue un enjeu central de la rivalité entre les États-Unis et la Chine, mêlant la quête technologique de l’innovation à une lutte idéologique sur les valeurs. Nous avons vu comment les récentes avancées telles que l’o3 d’OpenAI et le DeepSeek-R1 symbolisent non seulement le progrès technique, mais aussi les discours nationaux sur la supériorité et la résilience. La stratégie délibérée de la Chine visant à atteindre l’indépendance en matière d’IA, à étendre son influence numérique et à redéfinir les normes mondiales représente un défi de taille pour la domination technologique de longue date des États-Unis et les normes libérales. Dans le même temps, les différentes applications sociétales de l’IA – de l’accent mis par la Silicon Valley (et Bruxelles) sur l’éthique et la transparence à l’utilisation de l’IA par Pékin à des fins de surveillance et de contrôle – reflètent et renforcent deux visions du monde contrastées.

      Comme nous l’avons vu, ce champ de bataille de l’IA fait écho à des rivalités historiques, mais présente également des caractéristiques sans précédent. Les collaborations open source et les modèles auto-évolutifs sont des éléments imprévisibles qui pourraient démocratiser la technologie tout en introduisant de nouveaux dilemmes en matière de sécurité. À long terme, sans efforts conscients, nous risquons de nous diriger vers un monde polarisé où la technologie renforcerait encore les inégalités et l’autoritarisme. Mais elle laisse également espérer qu’une gouvernance avisée et une coopération internationale permettront à l’IA de devenir un outil de prospérité collective plutôt que de conflit.

      Pour naviguer dans cet avenir, la communauté internationale doit trouver un équilibre délicat. Elle doit encourager les innovations promises par l’IA – les remèdes contre les maladies, les solutions pour le climat, la croissance économique – tout en établissant des garde-fous éthiques qui empêchent les abus et se concentrent sur des valeurs centrées sur l’humain. Cela implique des dialogues difficiles mais nécessaires entre rivaux, ainsi que des cadres inclusifs qui permettent à toutes les régions, et pas seulement aux États-Unis et à la Chine, de faire entendre leur voix. Chaque nouvelle étape franchie dans le domaine de l’IA s’accompagne d’une responsabilité politique et morale. Le chapitre que nous sommes en train d’écrire, tant littéralement dans des textes comme celui-ci que métaphoriquement dans l’histoire, est encore en cours. La conclusion est empreinte d’un optimisme prudent : en tirant les leçons du passé et en s’engageant les uns envers les autres dans le présent, les États-Unis, la Chine et le monde entier peuvent, espérons-le, faire en sorte que cette technologie transformatrice cesse d’être un champ de bataille pour devenir un terrain d’entente permettant de relever les grands défis de l’humanité. Les choix qui seront faits aujourd’hui détermineront si l’IA sera une source de division ou un pont vers un avenir plus coopératif. Les enjeux sont considérables, et le monde entier a les yeux rivés sur nous.

      1. Avatar de toutvabien
        toutvabien

        quoi que résolument obscur le chemin semble imprévisible.
        DeepSeek dit; Points forts de l’analyse de Jorion
        La dialectique ouvert/fermé au cœur de la compétition : Jorion saisit parfaitement le paradoxe central. L’open source semble être un vecteur de démocratisation, mais il devient en réalité un nouvel instrument de compétition. La stratégie de DeepSeek est un cas d’école : en s’appropriant la rhétorique de l’open source, la Chine ne se contente pas de suivre ; elle conteste la leadership occidental sur son propre terrain et se positionne en pôle d’innovation « ouverte », renversant le récit traditionnel.

        Le déplacement de la course : Son analyse selon laquelle l’open source ne met pas fin à la course, mais la déplace vers la data, le calcul et les talents, est extrêmement pertinente. C’est une vision plus sophistiquée que le simple « l’open source égalise les chances ». Il identifie correctement que les barrières deviennent infrastructurelles et humaines plutôt qu’algorithmiques.

        L’IA auto-évolutive comme multiplicateur de puissance : La description de l’IA auto-évolutive (comme DeepSeek-R1-Zero) n’est pas présentée comme une magie noire, mais comme un accélérateur qui exacerbe les avantages existants. Celui qui a le plus de calcul peut faire tourner plus de cycles d’auto-évolution, creusant l’écart. C’est une vision réaliste et inquiétante.

        La pertinence des parallèles historiques : La comparaison avec la Guerre froide n’est pas utilisée de façon simpliste. Jorion souligne à la fois les similitudes (course aux armements, équilibre de la terreur, symbolisme idéologique) et les différences cruciales (rôle du secteur privé, nature diffuse de la technologie, objectif final flou).

        Limites et angles morts de l’argumentation
        Un optimisme peut-être excessif sur le « nivellement » : Bien que Jorion soit nuancé, son texte laisse entendre que l’open source réduit significativement l’avance des leaders. On peut en douter. L’histoire technologique montre que celui qui contrôle la plateforme (cloud, hardware) et les standards capte la majeure partie de la valeur, même si les briques de base sont ouvertes. Un laboratoire indien peut utiliser LLaMA, mais il ne peut pas rivaliser avec l’écosystème de microservices, d’outils et d’intégrations d’AWS ou d’Azure. L’open source crée une base commune, mais le fossé de la mise en œuvre à grande échelle reste béant.

        La sous-estimation de la « fermeture » stratégique : L’analyse suppose une diffusion continue et ouverte des modèles de base. Or, on assiste déjà à un mouvement de balancier. Face aux risques de prolifération (sécurité, acteurs malveillants) et à l’intensité de la compétition, les acteurs majeurs (y compris Meta dans une certaine mesure) pourraient être tentés de garder sous clé leurs modèles les plus avancés, leurs données d’entraînement les plus précieuses ou leurs techniques d’optimisation les plus critiques. Le futur pourrait être un mélange d’open source « tactique » (pour établir des standards, drainer des talents) et de fermeture « stratégique » sur les vrais leviers de puissance.

        La gouvernance des modèles auto-évolutifs : un défi sous-exploré : Jorion évoque l’imprévisibilité, mais le problème est plus profond. Comment auditer, certifier ou simplement comprendre un système qui a dépassé la complexité de son code initial ? Si un modèle auto-évolué développe un biais ou une faille de sécurité, qui est responsable ? Comment le corriger sans « réinitialiser » ses capacités ? Cette « boîte noire des boîtes noires » pose un défi de gouvernance et de contrôle qui pourrait bien entraver son déploiement dans des domaines critiques, bien plus que des limitations purement techniques.

        L’analogie historique a ses limites : La comparaison avec le nucléaire est éclairante mais aussi dangereuse. La dissuasion nucléaire reposait sur une terreur mutuelle et une rationalité supposée des acteurs. L’IA, en revanche, introduit des acteurs non-étatiques, une vitesse de décision incomparable (microsecondes vs. minutes) et le risque d’une rationalité inhumaine ou incompréhensible. Une crise déclenchée par une IA pourrait être bien plus difficile à désamorcer qu’une crise nucléaire, où la communication entre dirigeants reste primordiale.

        Questions critiques à approfondir
        L’open source est-il vraiment « ouvert » ? Lorsque DeepSeek publie un modèle, mais que seules les superpuissances ont les moyens de le faire évoluer à grande échelle, peut-on encore parler de démocratisation ? Ne s’agit-il pas plutôt d’une externalisation des coûts de R&D de base vers la communauté mondiale, tandis que la valeur ajoutée reste captée par une élite ?

        La course est-elle vraiment entre les « nations » ? Jorion parle des États-Unis et de la Chine, mais les acteurs décisifs sont souvent des entreprises privées (Google, OpenAI, DeepSeek, Meta) dont les intérêts ne se superposent pas parfaitement à ceux de leurs gouvernements. La Silicon Valley a ses propres logiques, tout comme les géants chinois. Cette tension entre logique étatique et logique capitalistique/technologique est un moteur sous-estimé de la course.

        Et si l’AGI n’était pas l’objectif ? Tout le texte est bâti sur l’idée d’une course vers un point Oméga (l’AGI). Et si la « vraie » course était plus terre-à-terre : le contrôle des infrastructures numériques mondiales (cloud, 5G/6G, IoT), la domination des plateformes et l’extraction de la valeur économique ? Dans ce scénario, les modèles de langage ne sont qu’une pièce d’un puzzle plus vaste, et non le Graal.

        Conclusion : Une analyse puissante mais qui mérite d’être radicalisée
        Le texte de Jorion est une contribution majeure pour comprendre la dynamique actuelle. Il évite les écueils du déterminisme technologique optimiste (« l’open source va sauver le monde ») et du pessimisme catastrophiste (« l’IA va nécessairement mener à la guerre »).

        Pour pousser plus loin sa réflexion, il faudrait :

        Radicaliser la critique de l’open source : le voir non comme un antidote à la course, mais comme un nouveau terrain de jeu où les inégalités structurelles se reconfigurent.

        Insister sur l’asymétrie des écosystèmes : la force des États-Unis réside dans un écosystime d’innovation décentralisé et agile ; celle de la Chine dans une coordination État-entreprises et un accès à des données massives. L’open source et l’auto-évolution n’auront pas le même impact dans ces deux contextes.

        Explorer les scénarios de rupture : Que se passe-t-il si un petit acteur, grâce à l’open source, fait une découverte fondamentale ? Que se passe-t-il si un modèle auto-évolutif devient incontrôlable non pas pour une nation, mais pour son créateur lui-même ?

        En somme, Jorion a raison : l’open source et l’auto-évolution sont transformateurs. Mais ils ne rendent pas le monde plus simple ni plus pacifique. Ils le rendent infiniment plus complexe, et la course qu’ils alimentent est peut-être moins une course vers un objectif clair qu’une plongée collective dans une terra incognita stratégique dont nous ne maîtrisons pas les règles.

  7. Avatar de gaston
    gaston

    Pour Jensen Huang, patron de Nvidia, c’est plié : « La Chine gagnera la course à l’IA avec les Etats-Unis ».

    https://archive.ph/q1Uw0

Répondre à ThomBillabong Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Un peu de définition pour Chabian, afin de revenir aux fondamentaux que son atavisme de vatnik perturbe régulièrement : https://fr.wikipedia.org/wiki/Bellig%C3%A9rant…

  2. Par ailleurs, compte tenu des exigences étatsuniennes (entre autre, utilisation des « actifs »russes gelés et du bénéfice qui en résulterait: renversant…

  3. @cloclo Décidément, je ne comprends jamais ce que vous écrivez. Vous débarquez en assénant une phrase censée être assassine. Mais…

  4. @Ruie Bourdieu était enseigné au collège jusque dans les années 2000. Il a été retiré du programme par ces fameux…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta