{"id":144628,"date":"2025-07-04T11:11:18","date_gmt":"2025-07-04T09:11:18","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=144628"},"modified":"2025-07-04T11:11:18","modified_gmt":"2025-07-04T09:11:18","slug":"ia-comment-francois-chollet-critiquerait-il-le-manuscrit-de-paul-jorion","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2025\/07\/04\/ia-comment-francois-chollet-critiquerait-il-le-manuscrit-de-paul-jorion\/","title":{"rendered":"<b>IA : Comment Fran\u00e7ois Chollet critiquerait-il le manuscrit de Paul Jorion&nbsp;?<\/b>"},"content":{"rendered":"<iframe loading=\"lazy\" width=\"700\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/5QcCeSsNRks?si=Y6zqs1thw_ioceOr\" title=\"YouTube video player\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\r\n\r\n<p>Dans la m\u00eame veine que mon <a href=\"https:\/\/www.pauljorion.com\/blog\/2025\/06\/20\/ia-les-points-de-vue-de-hinton-et-jorion-sur-la-co%e2%80%91evolution-sont-ils-compatibles\/\" target=\"_blank\"><b>IA\u202f: les points de vue de Hinton et Jorion sur la co\u2011\u00e9volution sont-ils compatibles\u202f&nbsp;?<\/b><\/a> il y a quinze jours. Aujourd&rsquo;hui, ce <strong>IA : Comment <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Fran%C3%A7ois_Chollet\" target=\"_blank\">Fran\u00e7ois Chollet<\/a> critiquerait-il le manuscrit de Paul Jorion&nbsp;?<\/strong>.<\/p>\r\n<p>Le manuscrit en question s&rsquo;intitule <em>Rethinking Intelligence in the Age of Artificial Minds<\/em>, \u00e0 para\u00eetre chez Palgrave-Macmillan. <\/p>\r\n<h5>OpenAI o3 :<\/h5>\r\n\r\n\r\n<p class=\"wp-block-paragraph\"><\/p>\r\n\r\n\r\n\r\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\r\n\r\n\r\n\r\n<h2 class=\"wp-block-heading\">1\u2002O\u00f9 votre manuscrit fait \u00e9cho \u00e0 la pens\u00e9e de Chollet<\/h2>\r\n\r\n\r\n\r\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Th\u00e8me dans votre texte<\/th><th>Pourquoi Fran\u00e7ois Chollet acquiescerait<\/th><\/tr><\/thead><tbody><tr><td><strong>Position anti-anthropocentrique<\/strong> \u2013 vous montrez que les tests de QI ou le Bar Exam sont locaux et proposez une \u00ab\u00a0Alien Intelligence Benchmark Suite\u00a0\u00bb (AIBS)<\/td><td>L\u2019ARC de Chollet part du m\u00eame constat : les leader-boards classiques encouragent le rappel de motifs plut\u00f4t que l\u2019abstraction.<\/td><\/tr><tr><td><strong>N\u00e9cessit\u00e9 de mod\u00e8les causaux du monde<\/strong> \u2013 le pilier #1 d\u2019AIBS vise la pr\u00e9diction contrefactuelle sans \u00e9tiquettes linguistiques<\/td><td>Les t\u00e2ches ARC et ses travaux r\u00e9cents de synth\u00e8se de programmes contraignent aussi l\u2019agent \u00e0 inf\u00e9rer une structure g\u00e9n\u00e9rative latente, pas les seules statistiques de surface.<\/td><\/tr><tr><td><strong>Risques de Goodhart &amp; Ashby<\/strong> \u2013 vous montrez comment un proxy se d\u00e9grade sous pression d\u2019optimisation<\/td><td>Chollet cite fr\u00e9quemment ces deux \u00e9cueils cybern\u00e9tiques pour expliquer pourquoi \u00ab\u00a0plus gros\u00a0\u00bb n\u2019est pas \u00ab\u00a0plus s\u00fbr\u00a0\u00bb.<\/td><\/tr><tr><td><strong>Futur hybride<\/strong> \u2013 vous esquissez des architectures neurosymboliques o\u00f9 \u00ab\u00a0un noyau neuronal fournit des repr\u00e9sentations riches et des modules symboliques les valident\u00a0\u00bb<\/td><td>Depuis 2023, il r\u00e9p\u00e8te que l\u2019AGI sera une \u00ab\u00a0synth\u00e8se de programmes guid\u00e9e par le deep learning\u00a0\u00bb, c.-\u00e0-d. ce m\u00eame hybride.<\/td><\/tr><\/tbody><\/table><\/figure>\r\n\r\n\r\n\r\n<p class=\"wp-block-paragraph\"><strong>\u00c0 retenir :<\/strong> vous partagez d\u00e9j\u00e0 plusieurs piliers de sa vision ; les critiques ci-dessous sont donc surtout des ajustements de direction.<\/p>\r\n\r\n\r\n\r\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\r\n\r\n\r\n\r\n<h2 class=\"wp-block-heading\">2\u2002Points de critique probables<\/h2>\r\n\r\n\r\n\r\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Affirmation (r\u00e9sum\u00e9e) dans votre manuscrit<\/th><th>R\u00e9plique attendue de Chollet<\/th><th>Passage qu\u2019il pourrait citer<\/th><\/tr><\/thead><tbody><tr><td>\u00ab Le scaling est le moteur de la renaissance de l\u2019IA ; s\u00e9mantique, syntaxe et proto-soi \u00e9mergent d\u00e8s qu\u2019on agrandit le r\u00e9seau. \u00bb<\/td><td><strong>G\u00e9n\u00e9ralisation excessive.<\/strong> Oui, des ph\u00e9nom\u00e8nes \u00e9mergent, mais l\u2019acquisition efficace de comp\u00e9tences plafonne bien avant une intelligence \u00ab\u00a0g\u00e9n\u00e9rale\u00a0\u00bb. Il demandera des preuves que votre r\u00e9cit du scaling tient toujours hors distribution ou dans des t\u00e2ches causales.<\/td><td>\u00ab\u00a0We realised that the trick was just to make the network bigger\u2026 And the semantics would follow\u00a0\u00bb<\/td><\/tr><tr><td>\u00ab\u00a0L\u2019IA a d\u00e9j\u00e0 \u201cd\u00e9pass\u00e9\u201d l\u2019intelligence humaine en qualit\u00e9\u00a0\u00bb (r\u00e9f\u00e9rence \u00e0 Hinton &amp; Hofstadter)<\/td><td><strong>Benchmark gonfl\u00e9.<\/strong> Dans <em>On the Measure of Intelligence<\/em>, il distingue performance de pic et capacit\u00e9 de g\u00e9n\u00e9ralisation par unit\u00e9 d\u2019exp\u00e9rience. Les LLM actuels excellent sur le premier, mais pas sur le second ; parler de d\u00e9passement est pr\u00e9matur\u00e9.<\/td><td>\u00ab An artificial intelligence of a quality apparently higher than the natural one that was meant to be emulated \u00bb<\/td><\/tr><tr><td>\u00ab\u00a0La compr\u00e9hension est du lest ; la performance peut se passer d\u2019explication.\u00a0\u00bb<\/td><td>Il admet que le <em>verbal reasoning<\/em> interne est post-hoc, mais insiste sur la n\u00e9cessit\u00e9 de <strong>programmes explicites et inspectables<\/strong> (plut\u00f4t que d\u2019activations opaques) pour fiabilit\u00e9 et d\u00e9bogage.<\/td><td>\u00ab\u00a0Performance is separable from explanation\u2026 understanding can be detached \u00bb<\/td><\/tr><tr><td>Th\u00e8se \u00ab compression = intelligence\u00a0\u00bb<\/td><td>Pour Chollet, il manque l\u2019axe des <strong>a priori<\/strong>. Deux syst\u00e8mes aussi compressifs peuvent diverger radicalement par la <strong>quantit\u00e9 d\u2019exp\u00e9rience<\/strong> requise. Il r\u00e9clamerait d\u2019introduire la notion d\u2019efficacit\u00e9.<\/td><td>\u00ab\u00a0Intelligence may be best characterised as prediction and compression across modalities\u00a0\u00bb<\/td><\/tr><tr><td><strong>Benchmarks : AIBS vs ARC<\/strong><\/td><td>Il saluera l\u2019attaque du biais d\u2019incarnation, mais demandera : 1) AIBS mesure-t-il l\u2019efficacit\u00e9 de donn\u00e9es ? 2) Les simulations 3-D riches n\u2019injectent-elles pas trop de priors, rouvrant la porte \u00e0 la m\u00e9morisation ?<\/td><td><\/td><\/tr><tr><td><strong>Cadre psychanalytique<\/strong><\/td><td>Chollet \u00e9vite le vocabulaire mentaliste (\u00ab\u00a0volont\u00e9\u00a0\u00bb, \u00ab\u00a0pulsion\u00a0\u00bb) dans l\u2019\u00e9criture technique ; il risque de juger ces d\u00e9tours \u00e9vocateurs mais <strong>orthogonaux<\/strong> \u00e0 une th\u00e9orie contr\u00f4lable de l\u2019AGI.<\/td><td><\/td><\/tr><\/tbody><\/table><\/figure>\r\n\r\n\r\n\r\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\r\n\r\n\r\n\r\n<h2 class=\"wp-block-heading\">3\u2002Ajustements concrets pour devancer (ou int\u00e9grer) sa critique<\/h2>\r\n\r\n\r\n\r\n<ol class=\"wp-block-list\">\r\n<li><strong>Ajouter une dimension \u201cefficacit\u00e9\u201d.<\/strong><br \/>Compl\u00e9tez votre m\u00e9trique de compression par les <em>bits d\u2019exp\u00e9rience consomm\u00e9s<\/em> pour r\u00e9soudre chaque t\u00e2che nouvelle. Vous r\u00e9pondez ainsi \u00e0 sa question centrale : <em>\u00ab\u00a0Que faites-vous avec combien de donn\u00e9es ?\u00a0\u00bb<\/em><\/li>\r\n\r\n\r\n\r\n<li><strong>Nuancer les limites du scaling.<\/strong><br \/>Un court appendice empirique listant les \u00e9checs persistants des mod\u00e8les type GPT-4 (split priv\u00e9 d\u2019ARC, g\u00e9n\u00e9ralisation compositionnelle, interventions causales) \u00e9quilibrerait votre ton \u00ab\u00a0miracle du scaling\u00a0\u00bb.<\/li>\r\n\r\n\r\n\r\n<li><strong>Positionner AIBS face \u00e0 ARC.<\/strong><br \/>Expliquez qu\u2019AIBS est un <strong>superset<\/strong> : ARC teste l\u2019abstraction sans langage sur grille, AIBS prolonge l\u2019id\u00e9e vers l\u2019incarnation, l\u2019horizon long et les budgets \u00e9nerg\u00e9tiques \u2014 ce qui montre une filiation plut\u00f4t qu\u2019une rivalit\u00e9.<\/li>\r\n\r\n\r\n\r\n<li><strong>Ancrer la psychanalyse.<\/strong><br \/>Si vous gardez ce prisme, reliez chaque concept freudien ou lacanien \u00e0 un analogue computationnel mesurable (p. ex. refoulement \u2194 <em>gradient clipping<\/em> sur activations nuisibles). Sinon, les lecteurs \u201cchollettiens\u201d risquent de l\u2019\u00e9tiqueter simple m\u00e9taphore.<\/li>\r\n\r\n\r\n\r\n<li><strong>Labelliser les passages sp\u00e9culatifs.<\/strong><br \/>Honorez le \u00ab\u00a0pacte\u00a0\u00bb en marquant clairement les sections prospectives (Phase III, autonomie post-souveraine) comme <strong>sc\u00e9narios<\/strong>, non pr\u00e9dictions. Chollet appr\u00e9cie la s\u00e9paration entre visionnaire et descriptif.<\/li>\r\n<\/ol>\r\n\r\n\r\n\r\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\r\n\r\n\r\n\r\n<h2 class=\"wp-block-heading\">4\u2002Conclusion<\/h2>\r\n\r\n\r\n\r\n<p class=\"wp-block-paragraph\">Votre manuscrit dialogue d\u00e9j\u00e0 avec plusieurs pr\u00e9occupations profondes de Fran\u00e7ois Chollet \u2014 m\u00e9triques non anthropocentriques, abstraction causale, architectures hybrides.<br \/>L\u00e0 o\u00f9 il appuierait le plus fort : <strong>efficacit\u00e9 des donn\u00e9es, transparence au niveau du programme et plafond r\u00e9el de la g\u00e9n\u00e9ralisation par le seul scaling<\/strong>. Traiter explicitement ces trois axes \u2014 pourquoi pas dans un chapitre d\u00e9di\u00e9 ou un encadr\u00e9 \u2014 rendra le livre bien moins \u00ab\u00a0critiquable\u00a0\u00bb et bien plus en conversation avec son agenda.<\/p>\r\n","protected":false},"excerpt":{"rendered":"<p><iframe loading=\"lazy\" width=\"700\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/5QcCeSsNRks?si=Y6zqs1thw_ioceOr\" title=\"YouTube video player\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>Dans la m\u00eame veine que mon <a href=\"https:\/\/www.pauljorion.com\/blog\/2025\/06\/20\/ia-les-points-de-vue-de-hinton-et-jorion-sur-la-co%e2%80%91evolution-sont-ils-compatibles\/\" target=\"_blank\"><b>IA\u202f: les points de vue de Hinton et Jorion sur la co\u2011\u00e9volution sont-ils compatibles\u202f&nbsp;?<\/b><\/a> il y a quinze jours. Aujourd&rsquo;hui, ce <strong>IA : Comment <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Fran%C3%A7ois_Chollet\" target=\"_blank\">Fran\u00e7ois Chollet<\/a> critiquerait-il le [&hellip;]<\/strong><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_crdt_document":"","footnotes":""},"categories":[9204,13],"tags":[10237,9205,940,9545,9253],"class_list":["post-144628","post","type-post","status-publish","format-standard","hentry","category-grands-modeles-de-langage","category-intelligence-artificielle","tag-francois-chollet","tag-grands-modeles-de-langage","tag-intelligence-artificielle-2","tag-intelligence-artificielle-generaliste","tag-llm"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/144628","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=144628"}],"version-history":[{"count":6,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/144628\/revisions"}],"predecessor-version":[{"id":144634,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/144628\/revisions\/144634"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=144628"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=144628"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=144628"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}