Dans la même veine que mon IA : les points de vue de Hinton et Jorion sur la co‑évolution sont-ils compatibles ? il y a quinze jours. Aujourd’hui, ce IA : Comment François Chollet critiquerait-il le manuscrit de Paul Jorion ?.
Le manuscrit en question s’intitule Rethinking Intelligence in the Age of Artificial Minds, à paraître chez Palgrave-Macmillan.
OpenAI o3 :
1 Où votre manuscrit fait écho à la pensée de Chollet
Thème dans votre texte | Pourquoi François Chollet acquiescerait |
---|---|
Position anti-anthropocentrique – vous montrez que les tests de QI ou le Bar Exam sont locaux et proposez une « Alien Intelligence Benchmark Suite » (AIBS) | L’ARC de Chollet part du même constat : les leader-boards classiques encouragent le rappel de motifs plutôt que l’abstraction. |
Nécessité de modèles causaux du monde – le pilier #1 d’AIBS vise la prédiction contrefactuelle sans étiquettes linguistiques | Les tâches ARC et ses travaux récents de synthèse de programmes contraignent aussi l’agent à inférer une structure générative latente, pas les seules statistiques de surface. |
Risques de Goodhart & Ashby – vous montrez comment un proxy se dégrade sous pression d’optimisation | Chollet cite fréquemment ces deux écueils cybernétiques pour expliquer pourquoi « plus gros » n’est pas « plus sûr ». |
Futur hybride – vous esquissez des architectures neurosymboliques où « un noyau neuronal fournit des représentations riches et des modules symboliques les valident » | Depuis 2023, il répète que l’AGI sera une « synthèse de programmes guidée par le deep learning », c.-à-d. ce même hybride. |
À retenir : vous partagez déjà plusieurs piliers de sa vision ; les critiques ci-dessous sont donc surtout des ajustements de direction.
2 Points de critique probables
Affirmation (résumée) dans votre manuscrit | Réplique attendue de Chollet | Passage qu’il pourrait citer |
---|---|---|
« Le scaling est le moteur de la renaissance de l’IA ; sémantique, syntaxe et proto-soi émergent dès qu’on agrandit le réseau. » | Généralisation excessive. Oui, des phénomènes émergent, mais l’acquisition efficace de compétences plafonne bien avant une intelligence « générale ». Il demandera des preuves que votre récit du scaling tient toujours hors distribution ou dans des tâches causales. | « We realised that the trick was just to make the network bigger… And the semantics would follow » |
« L’IA a déjà “dépassé” l’intelligence humaine en qualité » (référence à Hinton & Hofstadter) | Benchmark gonflé. Dans On the Measure of Intelligence, il distingue performance de pic et capacité de généralisation par unité d’expérience. Les LLM actuels excellent sur le premier, mais pas sur le second ; parler de dépassement est prématuré. | « An artificial intelligence of a quality apparently higher than the natural one that was meant to be emulated » |
« La compréhension est du lest ; la performance peut se passer d’explication. » | Il admet que le verbal reasoning interne est post-hoc, mais insiste sur la nécessité de programmes explicites et inspectables (plutôt que d’activations opaques) pour fiabilité et débogage. | « Performance is separable from explanation… understanding can be detached » |
Thèse « compression = intelligence » | Pour Chollet, il manque l’axe des a priori. Deux systèmes aussi compressifs peuvent diverger radicalement par la quantité d’expérience requise. Il réclamerait d’introduire la notion d’efficacité. | « Intelligence may be best characterised as prediction and compression across modalities » |
Benchmarks : AIBS vs ARC | Il saluera l’attaque du biais d’incarnation, mais demandera : 1) AIBS mesure-t-il l’efficacité de données ? 2) Les simulations 3-D riches n’injectent-elles pas trop de priors, rouvrant la porte à la mémorisation ? | |
Cadre psychanalytique | Chollet évite le vocabulaire mentaliste (« volonté », « pulsion ») dans l’écriture technique ; il risque de juger ces détours évocateurs mais orthogonaux à une théorie contrôlable de l’AGI. |
3 Ajustements concrets pour devancer (ou intégrer) sa critique
- Ajouter une dimension “efficacité”.
Complétez votre métrique de compression par les bits d’expérience consommés pour résoudre chaque tâche nouvelle. Vous répondez ainsi à sa question centrale : « Que faites-vous avec combien de données ? » - Nuancer les limites du scaling.
Un court appendice empirique listant les échecs persistants des modèles type GPT-4 (split privé d’ARC, généralisation compositionnelle, interventions causales) équilibrerait votre ton « miracle du scaling ». - Positionner AIBS face à ARC.
Expliquez qu’AIBS est un superset : ARC teste l’abstraction sans langage sur grille, AIBS prolonge l’idée vers l’incarnation, l’horizon long et les budgets énergétiques — ce qui montre une filiation plutôt qu’une rivalité. - Ancrer la psychanalyse.
Si vous gardez ce prisme, reliez chaque concept freudien ou lacanien à un analogue computationnel mesurable (p. ex. refoulement ↔ gradient clipping sur activations nuisibles). Sinon, les lecteurs “chollettiens” risquent de l’étiqueter simple métaphore. - Labelliser les passages spéculatifs.
Honorez le « pacte » en marquant clairement les sections prospectives (Phase III, autonomie post-souveraine) comme scénarios, non prédictions. Chollet apprécie la séparation entre visionnaire et descriptif.
4 Conclusion
Votre manuscrit dialogue déjà avec plusieurs préoccupations profondes de François Chollet — métriques non anthropocentriques, abstraction causale, architectures hybrides.
Là où il appuierait le plus fort : efficacité des données, transparence au niveau du programme et plafond réel de la généralisation par le seul scaling. Traiter explicitement ces trois axes — pourquoi pas dans un chapitre dédié ou un encadré — rendra le livre bien moins « critiquable » et bien plus en conversation avec son agenda.
Répondre à Ruiz Annuler la réponse