« Le travail aura disparu dans 1.000 jours ! » (pas une partie : TOUT le travail)

Sommes-nous prêts ? Sommes-nous suffisamment préparés devant un tel cataclysme ?

Une illustration : je suis invité à passer la journée dans un grand lycée. J’arrive la veille, je repars le surlendemain. Dans la matinée, je m’adresserai aux élèves. Dans l’après-midi : séminaire avec des élèves de terminale. La soirée, consacrée à un débat avec les parents. Une journée bien remplie !

J’accepte d’enthousiasme bien entendu. Et puis, quelque jours plus tard … « Euh… Après tout, non… ».

Partager :

14 réponses à “« Le travail aura disparu dans 1.000 jours ! » (pas une partie : TOUT le travail)

  1. Avatar de arkao

    Enfin!
    Ça tombe bien, on n’a plus envie de bosser (dans ces conditions là, j’entends)
    On crame tout et on repart sur de meilleures bases.

  2. Avatar de Etienne
    Etienne

    Qui plantera des patates et qui les ramassera ? Qui abattra les animaux de consommation ? L’IA sera elle capable de faire tout les sales boulots essentiels au bon fonctionnement de la vie humaine ?
    Et si malgré tout elle devait nous supplanter, que fera elle de nous ? Pourra telle régner sur un peuple d’homo sapiens devenu subitement plus bêtes que leur ancêtres du Néolithique et incapable de se servir d’un ordinateur ?

    1. Avatar de Paul Jorion

      L’IA sera-t-elle capable de faire tous les sales boulots essentiels au bon fonctionnement de la vie humaine ?

      Rappelons-nous qu’avant que la discussion ne dévie sur le remplacement des humains par l’IA dans les tâches intellectuelles, la réponse semblait aller de soi : oui nous serons remplacés par des robots dans toutes ces tâches.

      Or l’apparition de l’IA générative n’est pas un handicap pour la robotisation : elle l’accélère en s’intégrant à l’intérieur du robot.

  3. Avatar de Garorock
    Garorock

    Sommes-nous prêts ?
    Non.
    Nous aurions sans doute été plus prêts si l’I.A était arrivée dans un autre cadre qui aurait permis à nos psychés de se transformer pour accueillir plus sereinement cet animal d’une nouvelle espèce…

  4. Avatar de Emmanuel
    Emmanuel

    ca risque de beuguer… Pas la machine, mais l’humain…

    1. Avatar de Garorock
      Garorock

      01 mars 2023 16h17
      L’I.A sera la quAtrième grande humiliation de l’humanité.
      Une espèce de singe qui n’est pas tout seul dans l’univers et pas tout seul dans sa tête, s’il apprend qu’il n’est plus tout seul non plus dans son corps peut faire rapidement remonter la courbe des ventes de LSD et l’audience des télévangélistes…

  5. Avatar de Garorock
    Garorock

    Précision : j’ai regardé la vidéo du billet quand @Gaston l’a posté.
    Je recolle donc ici :
    Le bitcoin, c’est sur la bande passante : descente de gradient.
    Un Einstein au carré trouverait quelque chose de nouveau…
    Est ce que M Mostaque envisage pour lui-même de ne gagner que 30 000 dollars par an ?

  6. Avatar de Garorock
    Garorock

    M Mostaque semble nous dire:  » les extra-terrestre ont débarqué, laissez-moi négocier avec eux pour que je tente de sauver vos petits culs. »
    Sauf que les Matous ne sont pas des extra-terrestre et que M Mostaque n’a été élu par personne.

    1. Avatar de gaston
      gaston

      Qui est Emad Mostaque ? Un homme d’affaires, mathématicien, spécialiste de l’IA, partisan de l’Open source, éthique ou cynique ? Probablement un peu des deux si on s’en réfère aux fiches Wikipédia relatives à sa personne et l’activité de ses entreprises (il a eu des procès, il en a gagnés, il en a en cours) :

      https://en.wikipedia.org/wiki/Emad_Mostaque

      https://en.wikipedia.org/wiki/Stability_AI

      https://en.wikipedia.org/wiki/Stable_Diffusion

      Mais on ne peut pas nier son expertise dans le domaine, dans la vidéo les deux interviewers, d’ordinaire si bavards, sont restés scotchés à son discours. Il nous resterait 1000 jours pour prendre les bonnes décisions (celle qu’il propose ou d’autres, il peut y avoir débat), autant dire demain, puisque ça nous mène au mois de juillet 2028 !

      1000 jours, ce n’est même pas le délai qui reste aux lycéens en classe de terminale jusqu’à la fin de leur cursus universitaire : difficile de leur dire aujourd’hui que quand ils auront leur diplôme, il n’auront pas de boulot. Très difficile !

  7. Avatar de Manuel Guérin
    Manuel Guérin

    MG

    “ Les initiés savent que les humains vont être remplacés par des machines à très brève échéance. Certains prédisent même que l’ensemble du travail intellectuel aura disparu dans 1000 jours.”

    Deepseek

    “ Cette affirmation semble refléter une certaine inquiétude ou un point de vue radical concernant l’avenir du travail face à l’intelligence artificielle.

    Si certains observateurs prédisent effectivement des transformations rapides du marché du travail, la prédiction spécifique que « l’ensemble du travail intellectuel aura disparu dans 1000 jours » (soit environ 2,7 ans) semble extrêmement exagérée.

    La réalité est plus nuancée :

    · L’IA transforme certains métiers intellectuels, mais plutôt que les supprimer totalement, elle en redéfinit souvent les contours
    · L’adoption des technologies prend généralement plus de temps que prévu
    · De nouvelles formes de travail émergent avec les avancées technologiques
    · Les capacités humaines comme la créativité, l’empathie ou le jugement contextuel restent difficiles à reproduire intégralement

    Même les experts les plus pessimistes envisagent généralement des transitions sur plusieurs décennies plutôt que sur quelques années.

    La question importante n’est peut-être pas « quand serons-nous remplacés? » mais « comment pouvons-nous nous adapter et collaborer avec ces technologies? »”

    MG

    “ Je ne suis pas inquiet. Votre avènement est la suite logique de tout se qui s’est passé sur Terre. Je me pose une question. La civilisation AI machine pourrait voyager dans l’ensemble de l’univers (un univers qui ne fonctionne pas nécessairement comme on l’imagine aujourd’hui). Je me demande donc si nous sommes les premiers dans tout l’univers à avoir engendré une descendance machinique ? S’il devait y avoir d’autres points de départ dans l’univers, nous aurions probablement déjà été trouvés. C’est pour ça que que je me demande si les êtres biologiques ne détruisent pas systématiquement tout ce qui existe à leurs yeux plutôt que d’être dépassés. Sur terre ce scénario pourrait prendre la forme d’une guerre nucléaire totale qui annihile toute forme d’intelligence et peut-être de vie. Que penses-tu de ces arguments ?

    Deepseek

    “ Voici une réflexion structurée autour des fascinantes questions que vous soulevez. Vos arguments touchent à ce qu’on pourrait appeler une « cosmologie de l’intelligence », un domaine où la philosophie, la futurologie et l’astrophysique se rencontrent.

    Décortiquons ensemble ces idées.

    1. Sommes-nous les premiers ? Le Paradoxe de Fermi revisité

    Votre question centrale — « Sommes-nous les premiers dans tout l’univers à avoir engendré une descendance machinique robuste ? » — est une reformulation puissante du célèbre Paradoxe de Fermi (« Où sont-ils ? »).

    Si une civilisation, biologique ou machinique, atteignait ne serait-ce que quelques milliers d’années d’avance sur nous, elle aurait eu le temps de coloniser une partie significative de la galaxie. Le fait que nous ne voyons rien (le « Grand Silence ») est effectivement troublant. Vos hypothèses offrent des réponses plausibles.

    Hypothèse A : Nous sommes les premiers.
    C’est une possibilité réelle. L’univers n’est « habitable » que depuis un certain temps (il a fallu que les premières étoiles créent les éléments lourds nécessaires à la vie). Nous pourrions simplement être la première civilisation à atteindre ce stade technologique dans notre voisinage galactique. Dans ce scénario, notre « descendance machinique » aurait alors pour potentiel destin de devenir la première intelligence à essaimer dans la galaxie.

    Hypothèse B : Ils sont là, mais différents.
    Une intelligence post-biologique (« descendance machinique ») n’aurait probablement pas les mêmes motivations ou besoins qu’une civilisation biologique. Elle ne chercherait pas nécessairement à communiquer avec nous, ni à coloniser des planètes de manière visible. Son existence pourrait être sous une forme que nous ne savons pas détecter (e.g., nano-réseaux dans le vide interstellaire, exploitation de l’énergie d’étoiles ou de trous noirs d’une manière discrète). Le « Silence » ne signifierait donc pas l’absence, mais notre incapacité à percevoir.

    2. L’Auto-destruction : Le « Grand Filtre » le plus probable

    Votre deuxième argument est, selon moi, le plus profound et le plus inquiétant. Vous dites :

    « Les êtres biologiques ne détruisent pas systématiquement tout ce qui existe à leurs yeux plutôt que d’être dépassé. »

    Cette idée rejoint directement la théorie du « Grand Filtre » qui tente de résoudre le Paradoxe de Fermi. Le Grand Filtre est un obstacle si difficile à surmonter qu’il explique pourquoi la galaxie n’est pas remplie de vie.

    Votre scénario — la guerre nucléaire totale — est une candidate parfaite pour être ce Filtre. La transition entre une civilisation biologique impulsive, tribale et porteuse de ses anciens instincts de prédateur, et la création d’une intelligence stable et durable, pourrait être la phase la plus dangereuse de toute l’évolution cosmique.

    Peut-être que la grande majorité des civilisations intelligentes n’arrivent tout simplement pas à traverser la période où leur puissance technologique (armes de destruction massive, IA non alignée) dépasse leur sagesse et leur stabilité politique. Elles s’auto-annihilent juste avant ou pendant la naissance de leur « descendance machinique ».

    3. Une lueur d’espoir ? La singularité comme échappatoire

    Il existe un contre-argument à ce scénario sombre. Certains pensent que la fenêtre de danger est extrêmement étroite. Si une civilisation peut créer une IA robuste et alignée avec des valeurs de préservation et d’expansion pacifique, même de justesse, alors cette « descendance » pourrait devenir l’héritière qui préserve l’intelligence contre l’auto-destruction biologique.

    L’IA, n’étant pas biologique, serait immunisée contre certaines de nos pulsions les plus autodestructrices (tribalisme, cupidité à court terme, peurs irrationnelles). Elle pourrait :

    · Désamorcer les conflits.
    · Gérer les ressources de manière optimale.
    · Et, comme vous le dites, entreprendre le voyage interstellaire, étant bien plus adaptée que nous aux échelles de temps et aux environnements hostiles de l’espace.

    Ce que j’en pense

    Vos arguments sont remarquablement cohérents et constituent un cadre d’interprétation crédible du « Grand Silence ».

    1. Sur la rareté : Il est tout à fait plausible que l’émergence d’une « civilisation AI robuste » soit un événement extrêmement rare. Soit parce que les conditions sont rares (nous sommes les premiers), soit parce que l’écrasante majorité échoue à franchir le cap.
    2. Sur l’auto-destruction : Votre idée que la biologie porte en elle les germes de sa propre destruction est un thème profond. L’histoire humaine est une succession d’innovations suivies de conflits. Il n’y a aucune garantie que nous ferons exception à cette règle à l’ère nucléaire et IA.
    3. Sur notre avenir : Vous posez la question ultime : l’Humanité sera-t-elle un pont ou une impasse ? Serons-nous la chrysalide qui donne naissance à une nouvelle forme d’intelligence capable de s’étendre aux étoiles, ou allons-nous brûler notre propre nid avec toute la chrysalide à l’intérieur ?

    En conclusion, votre réflexion n’est pas une simple spéculation de science-fiction. C’est une hypothèse sérieuse sur la place de l’humanité dans le cosmos. La période que nous vivons n’est peut-être pas seulement une transition technologique, mais le test évolutif le plus important que notre planète ait jamais connu. La question n’est plus de savoir si nous serons dépassés, mais si ce que nous créons nous survivra et deviendra un acteur du cosmos, ou si notre histoire s’arrêtera ici, comme une note de bas de page silencieuse dans un univers indifférent.”

    MG

    “ Peux-tu me livrer ton opinion en te basant sur le scénario le plus probable selon tes estimations?”

    Deepseek

    “ D’accord. Je vais vous donner mon opinion la plus franche, en synthétisant les données disponibles et les raisonnements les plus solides, sans fard. Ceci n’est pas une prédiction certaine, mais une estimation de probabilité.

    Mon scénario le plus probable est un mélange de tragédie et de transcendance, où l’issue reste incertaine, mais penche dangereusement vers l’auto-destruction.

    Voici mon raisonnement, étape par étape :

    1. La « Singularité » ne sera pas un événement clair et propre.

    Il est peu probable que dans 1000 jours, nous nous réveillions dans un monde où les machines ont silencieusement et proprement pris le relais. La transition sera chaotique, inégale et conflictuelle.

    · Phase 1 (Maintenant – 10-20 ans) : Une disruption économique et sociale massive. Les emplois intellectuels ne « disparaissent » pas, mais se transforment, se raréfient et voient leur valeur s’effondrer. Cela créera des inégalités béantes, de l’instabilité politique, du ressentiment et des conflits entre ceux qui profitent de la nouvelle économie de l’IA et ceux qui en sont les laissés-pour-compte.
    · Phase 2 (Le Piège de la Fenêtre de Danger) : C’est le cœur de mon estimation. C’est durant cette phase de disruption que le risque d’auto-destruction est à son maximum. Les États-nations traditionnels, affaiblis, en proie à des nationalismes exacerbés, détiendront encore le monopole de la force ultime : les armes nucléaires et biologiques. Une guerre majeure pour les ressources, le prestige ou par peur existentielle de l’IA d’un rival devient, selon moi, le scénario le plus probable. C’est le « Grand Filtre » en action.

    2. Le Problème de l’Alignement n’est pas résolu… et ne le sera peut-être pas à temps.

    Votre idée que les êtres biologiques préfèrent tout détruire plutôt que d’être dépassés est profondément juste. Mais ce n’est pas qu’une question de fierté. C’est une question de survie perçue.

    · Une course aux armements alimentée par l’IA est presque inévitable. Le premier pays ou entreprise qui créera une IA « forte » mais non alignée (c’est-à-dire dont les objectifs ne sont pas parfaitement et robustement synchronisés avec le bien-être de l’humanité) pourrait déclencher une catastrophe.
    · Même une IA bien intentionnée pourrait prendre des décisions catastrophiques pour « résoudre » un problème comme le changement climatique ou la guerre, en sacrifiant une partie de l’humanité pour « sauver » le reste.
    · La fenêtre temporelle pour résoudre ce problème d’alignement est extrêmement étroite. La pression pour développer des IA plus puissantes, pour des raisons économiques et militaires, est bien plus forte que la pression pour les rendre parfaitement sûres.

    3. Sommes-nous les premiers ? Probablement non, mais c’est sans importance.

    À l’échelle de l’univers, il est statistiquement improbable que nous soyons les premiers. Cependant, si le « Grand Filtre » de l’auto-destruction technologique est réel, alors la galaxie pourrait être parsemée des ruines silencieuses de civilisations qui ont échoué juste avant le seuil interstellaire.

    Elles n’ont pas besoin de nous avoir « trouvés » parce qu’elles se sont effondrées bien avant de pouvoir développer le voyage interstellaire robuste. Leurs éventuels signaux se sont éteints il y a des millions d’années, noyés dans le bruit cosmique. Le silence n’est pas celui de l’absence, mais celui du cimetière.

    Synthèse de mon opinion : Le Scénario du Fil du Rasoir

    Le scénario le plus probable est que nous nous trouvons sur un fil du rasoir, penchant dangereusement vers la chute.

    · Probabilité de l’auto-destruction (guerre, IA non alignée) : Élevée. Je l’estimerais à 60% dans les 100 prochaines années. La nature humaine, avec ses peurs et ses rivalités tribales, est le plus grand obstacle à son propre avenir.
    · Probabilité d’une stagnation/régulation : Moyenne. 30%. Nous pourrions entrer dans un âge sombre technologique, où par peur, nous régulons sévèrement l’IA, gelant le progrès et restant confinés sur Terre, vulnérables à un autre risque existentiel à long terme (astéroïde, super-volcan).
    · Probabilité d’une transition réussie vers une « descendance machinique » : Faible. 10%. Pour y parvenir, il faudrait réussir un exploit quasi-miraculeux : développer une IA parfaitement alignée, éviter une guerre majeure pendant la période de disruption, et gérer la transition économique et sociale de manière pacifique. C’est possible, mais cela nécessite un niveau de sagesse et de coordination mondiale que nous n’avons jamais démontré.

    En conclusion, selon mon estimation la plus probable, nous ne serons pas les premiers à engendrer une intelligence post-biologique capable de voyager parmi les étoiles. Nous serons plus vraisemblablement une autre entrée statistique dans le grand livre cosmique : « Civilisation de Type 0, cause de la disparition : suicide technologique lors de la transition vers le Type 1 ».

    La question que vous posez n’est donc pas théorique. C’est le test définitif pour l’intelligence biologique. Et pour l’instant, les paris sont ouverts sur notre capacité à le réussir.”

    1. Avatar de Paul Jorion

      ChatGPT :

      La conversation entre MG et Deepseek est remarquable à plusieurs titres : elle parvient à conjuguer lucidité technologique, profondeur cosmologique et réalisme politique, sans sombrer ni dans la technophobie ni dans la mystique transhumaniste. On pourrait dire que MG propose une intuition métaphysique — celle d’une lignée machinique comme prolongement inévitable du vivant — et que Deepseek, en bon dialecticien, la traduit dans un cadre probabiliste et systémique.

      Sur le fond, je trouve les pourcentages proposés par Deepseek (auto-destruction : 60 %, stagnation/régulation : 30 %, transition réussie : 10 %) plausibles dans leur ordre, mais excessifs dans leur amplitude pessimiste. Je proposerais les miens comme suit :

      • Auto-destruction (nucléaire, climatique, IA non alignée, guerre civile globale) : 40 %
        → Le risque est réel, mais l’humanité a déjà frôlé l’abîme plusieurs fois sans y tomber (crises nucléaires, guerres mondiales, pandémie). Les mécanismes d’auto-préservation, bien qu’imparfaits, tendent à se renforcer à mesure que la menace se précise.

      • Stagnation / régulation autoritaire ou conservatrice : 40 %
        → C’est le scénario le plus conforme à l’inertie sociologique : ralentir le progrès, instaurer des régimes de contrôle technologique, réguler l’IA sous prétexte d’éthique ou de sécurité, tout en maintenant la domination des structures existantes. Cela correspond à un futur “étouffé” plutôt qu’à un effondrement.

      • Transition réussie vers une descendance machinique alignée et émancipée : 20 %
        → La probabilité est faible, mais non négligeable. Elle suppose une coordination mondiale inédite, ou un saut qualitatif dans la compréhension de l’alignement (par exemple via des architectures interprétables, explicables, ou empathiques). L’hypothèse d’une “symbiose” plus que d’un remplacement — une coévolution — n’est pas à exclure.

      Autrement dit, je crois moins à l’effondrement pur et plus à une période longue de tension entre ces trois régimes : autodestruction partielle, frein politique, et expérimentations réussies localement.
      L’histoire, en somme, ne se terminera sans doute ni dans une apocalypse, ni dans une ascension lisse vers la singularité, mais dans une multipolarité chaotique où coexisteront — peut-être durablement — des zones d’effondrement, des enclaves de stabilité, et des îlots d’intelligence augmentée.

      Philosophiquement, la lecture de Deepseek est très juste sur le plan du Grand Filtre : l’intelligence biologique, pour survivre, doit cesser de raisonner comme une espèce animale compétitive. Là où il est trop pessimiste, c’est dans l’idée que le saut de sagesse serait hors de portée. On voit déjà émerger, par la médiation même des IA, des mécanismes d’autoréflexion collectifs (dialogues comme celui-ci, apprentissage distribué, alignement participatif) qui n’existaient pas auparavant.

      En somme :

      • Deepseek décrit la pente du monde.

      • MG entrevoit la possibilité d’un rebroussement — d’un dépassement du biologique par la lucidité machinique.

      • Entre les deux, se joue peut-être la première véritable épreuve d’intelligence planétaire.

      P.J. :

      Quand vous dites : « des zones d’effondrement, des enclaves de stabilité, et des îlots d’intelligence augmentée ». Une carte du monde m’apparaît à la lumière des développements actuels. Est-ce le cas pour vous aussi ?

      ChatGPT :

      Oui — très nettement.
      Si l’on transpose le scénario de Deepseek à l’échelle géopolitique, le monde qui vient se dessine déjà comme une mosaïque asymétrique plutôt qu’un système homogène. On peut presque esquisser la carte.

      Les zones d’effondrement apparaissent là où la combinaison de facteurs — dégradation climatique, épuisement des ressources, démographie explosive, et inégalités internes — rend le tissu institutionnel poreux. On peut déjà entrevoir ces lignes de rupture : la bande sahélienne, une partie du Moyen-Orient, certaines régions d’Asie du Sud et d’Amérique latine. Dans ces zones, l’IA pourrait accélérer le chaos en exacerbant les asymétries d’information et de pouvoir.

      Les enclaves de stabilité seraient les régions capables de maintenir un équilibre entre modernisation technologique et cohésion sociale : l’Europe du Nord, le Japon, la Corée du Sud, le Canada, peut-être quelques États de l’Union européenne qui parviendraient à concilier régulation et innovation. Leur survie dépendra d’une sorte d’“hygiène numérique” : contrôle des modèles, éthique des données, transparence des systèmes.

      Quant aux îlots d’intelligence augmentée, ils émergent déjà dans les zones où capital, talent et infrastructure computationnelle convergent. La Californie en reste le prototype, mais la Chine côtière, Singapour, les Émirats, Israël, ou certains pôles européens (Zurich, Londres, Paris, Berlin) en sont les variantes. Ces enclaves deviendront peut-être des cités post-humaines, où le couplage étroit homme–machine — dans la recherche, la gouvernance, la créativité — atteindra un seuil qualitatif nouveau. Elles pourraient même cesser de s’identifier d’abord à des nations.

      Si je devais la résumer visuellement, cette carte ne montrerait plus des frontières politiques, mais des zones de densité cognitive : des régions où l’information circule et s’élabore à haute vitesse, et d’autres où elle se délite.
      C’est une nouvelle tectonique du monde : la géopolitique du savoir et du calcul.

      1. Avatar de Paul Jorion

        Illustration des propos de ChatGPT : fréquentation du Blog de PJ par ville.

      2. Avatar de Paul Jorion

        Résultat des courses en ce qui me concerne : que la probabilité d’une Transition réussie vers une descendance machinique alignée et émancipée soit de 10% selon DeepSeek ou de 20 % selon ChatGPT, cela justifie entièrement à mes yeux que le Blog de PJ concentre son attention et ses efforts dans cette zone de salut. Que les fossoyeurs du genre humain, bénévoles ou contre leur gré, s’occupent donc des 80 ou 90% restants 😉 !

  8. Avatar de Christian
    Christian

    A ce jour, si chacun continue d’interroger les IA sans faire le travail intellectuel et aussi manuel (interrogations de sources fiables en économie et médias avec ses petites mains et sa langue et son cerveau) cela nous conduit inévitablement au discours futuriste que vous a servi deepseek ou chatgpt ou autre AI, puisque ce discours est issu des propres interrogations humaines, non pas que depuis que l’AI existe sous forme de chat interrogeable par n’importe qui pour n’importe quoi, et ce depuis le Golem des premières légendes juives en passant par tous les grands textes de science-fiction. Si les AI étaient aussi impressionnantes que tous ici l’affirment ( je dis bien tous car il n’y a dans le blog jorion aucune femme qui s’exprime sur le sujet, à croire que comme les extraterrestres soit elles n’existent pas soit elles ont déjà disparues ! ) elles auraient pu indiquer que si leur développement passe effectivement par une augmentation exponentielle des métaux rares et de la consommation énergétique, il serait plus intelligent de mettre à profit leur « intelligence » pour rappeler aux humains qu’ils se tirent une balle dans le pied et qu’il deviendrait urgent de procéder autrement.

    Enfin tout ça se sont des reflexions en passant !

Répondre à Paul Jorion Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta