{"id":143989,"date":"2025-04-21T13:35:29","date_gmt":"2025-04-21T11:35:29","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=143989"},"modified":"2025-04-21T13:35:29","modified_gmt":"2025-04-21T11:35:29","slug":"regles-et-correlations-qui-est-le-plus-costaud","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2025\/04\/21\/regles-et-correlations-qui-est-le-plus-costaud\/","title":{"rendered":"<b>\u00ab\u00a0R\u00e8gles\u00a0\u00bb et \u00ab\u00a0corr\u00e9lations\u00a0\u00bb : qui est le plus costaud&nbsp;?<\/b>"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-143995\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\r\n<p style=\"text-align: center;\"><em>Illustration par ChatGPT 4o<\/em><\/p>\r\n\r\n<blockquote>\r\n<p><em>Un peu plus tard, mais <a href=\"https:\/\/www.pauljorion.com\/blog\/2025\/04\/21\/humains-vs-ia-aristote-vs-platon\/\" target=\"_blank\" rel=\"noopener\">toujours au bord de la piscine<\/a><\/em> \ud83d\ude1c.<\/p>\r\n<\/blockquote>\r\n<p><strong>P.J.<\/strong> :<\/p>\r\n<blockquote>\r\n<p><em>Ne pensez-vous pas que les humains continueront de penser que les r\u00e8gles capturent mieux l&rsquo;essence-m\u00eame des choses, tandis que les corr\u00e9lations constituent une approximation grossi\u00e8re et basique, ce qui implique que les LLM passent \u00e0 c\u00f4t\u00e9 de quelque chose en n&rsquo;extrayant pas les \u00ab r\u00e8gles sous-jacentes \u00bb qui, en r\u00e9alit\u00e9, <strong>r\u00e9gissent<\/strong> le monde : qu&rsquo;ils perdent certaines informations pertinentes ? Ne peut-on d\u00e9fendre le point de vue oppos\u00e9, \u00e0 savoir que les r\u00e8gles sont des esquisses qui, par n\u00e9cessit\u00e9, ne peuvent saisir la complexit\u00e9 \u00ab indisciplin\u00e9e \u00bb des choses ; en d&rsquo;autres termes, ce serait l&rsquo;expression sous forme de r\u00e8gles qui \u00e9vacuerait une partie de l&rsquo;information. Qu&rsquo;en pensez-vous ?<\/em><\/p>\r\n<\/blockquote>\r\n<p>Thought for 12 seconds<\/p>\r\n<p><strong>ChatGPT o3<\/strong> :<\/p>\r\n<h3>Une fa\u00e7on utile de cadrer le d\u00e9bat<\/h3>\r\n<table>\r\n<thead>\r\n<tr>\r\n<th>Perspective<\/th>\r\n<th>Vision \u00ab\u00a0r\u00e8gles d\u2019abord\u00a0\u00bb<\/th>\r\n<th>Vision \u00ab\u00a0corr\u00e9lations d\u2019abord\u00a0\u00bb<\/th>\r\n<\/tr>\r\n<\/thead>\r\n<tbody>\r\n<tr>\r\n<td><strong>Qu\u2019est\u2011ce qu\u2019une r\u00e8gle\u00a0?<\/strong><\/td>\r\n<td>\u00c9nonc\u00e9 concis, souvent symbolique, qui <em>explique<\/em> et <em>pr\u00e9voit<\/em> en r\u00e9v\u00e9lant une structure cach\u00e9e (ex.\u00a0:\u00a0F\u00a0=\u00a0ma).<\/td>\r\n<td>Motif comprim\u00e9 de r\u00e9gularit\u00e9s statistiques qui <em>imite<\/em> le comportement sans structure explicite (ex.\u00a0: <strong>poids<\/strong> d\u2019un LLM).<\/td>\r\n<\/tr>\r\n<tr>\r\n<td><strong>Information conserv\u00e9e \/ perdue<\/strong><\/td>\r\n<td>Conserve des leviers <strong>causaux<\/strong> et <strong>contrefactuels<\/strong> (\u00ab\u00a0que se passe\u2011t\u2011il si\u2026\u00a0?\u00bb). Perd les d\u00e9tails riches et bruyants qui ne rentrent pas dans le cadre.<\/td>\r\n<td>Conserve <em>presque tout<\/em> ce qui est pr\u00e9sent dans les donn\u00e9es (queues longues, contingences). Perd un mod\u00e8le lisible d\u00e9crivant <em>pourquoi<\/em> les choses varient.<\/td>\r\n<\/tr>\r\n<tr>\r\n<td><strong>Modes d\u2019\u00e9chec<\/strong><\/td>\r\n<td>Fragilit\u00e9 hors du domaine de validit\u00e9\u00a0; ignore les r\u00e9sidus qui deviendront importants plus tard.<\/td>\r\n<td>Surapprentissage de corr\u00e9lations fallacieuses\u00a0; opacit\u00e9 face aux interventions\u00a0; difficult\u00e9 \u00e0 <em>prouver<\/em> la fiabilit\u00e9.<\/td>\r\n<\/tr>\r\n<\/tbody>\r\n<\/table>\r\n<hr \/>\r\n<h3>Pourquoi les r\u00e8gles <em>sont<\/em> des croquis comprim\u00e9s<\/h3>\r\n<ol>\r\n<li><strong>La compression est leur raison d\u2019\u00eatre<\/strong><br \/>Une r\u00e8gle est une r\u00e9duction drastique de dimension\u00a0: elle jette la majeure partie de la variation r\u00e9elle pour isoler quelques variables <em>essentielles<\/em>. Ce gain explicatif implique une perte d\u2019information.<\/li>\r\n<li><strong>Les syst\u00e8mes complexes r\u00e9sistent aux r\u00e8gles ferm\u00e9es<\/strong><br \/>Climat, repliement prot\u00e9ique ou \u00e9volution linguistique pr\u00e9sentent des interactions d\u2019ordre \u00e9lev\u00e9 qui \u00e9chappent aux formulations symboliques \u00e9l\u00e9gantes. Dans ces domaines, les meilleurs pr\u00e9dicteurs actuels sont souvent <em>data\u2011driven<\/em> ou bas\u00e9s sur la simulation, non sur des r\u00e8gles.<\/li>\r\n<li><strong>Point de vue de la complexit\u00e9 de Kolmogorov<\/strong><br \/>Le \u00ab\u00a0programme\u00a0\u00bb qui g\u00e9n\u00e8re le monde peut \u00eatre <em>irr\u00e9m\u00e9diablement long<\/em>. Toute r\u00e8gle concise que nous \u00e9crivons est donc une approximation. Un mod\u00e8le massif \u00e0 millions de param\u00e8tres peut se rapprocher, en longueur de description, de ce programme irr\u00e9ductible mieux qu\u2019un petit ensemble d\u2019\u00e9quations.<\/li>\r\n<\/ol>\r\n<hr \/>\r\n<h3>Pourquoi les corr\u00e9lations <em>ratent quand m\u00eame quelque chose<\/em><\/h3>\r\n<ol>\r\n<li><strong>La manipulation causale exige de la structure<\/strong><br \/>Pour <em>intervenir<\/em> (concevoir un m\u00e9dicament, un pont) il faut des leviers contrefactuels\u00a0: <em>si je change X, Y varie ainsi<\/em>. La pure corr\u00e9lation ne fournit pas ces poign\u00e9es\u00a0; d\u2019o\u00f9 l\u2019int\u00e9r\u00eat de combiner apprentissage \u00e0 grande \u00e9chelle et modules de graphes causaux ou de simulateurs.<\/li>\r\n<li><strong>G\u00e9n\u00e9ralisation hors distribution<\/strong><br \/>Quand l\u2019environnement change, une r\u00e8gle parcimonieuse encodant de v\u00e9ritables invariants (conservation de l\u2019\u00e9nergie, grammaire compositionnelle) g\u00e9n\u00e9ralise souvent mieux qu\u2019une surface de corr\u00e9lations entra\u00een\u00e9e sur l\u2019ancien r\u00e9gime.<\/li>\r\n<li><strong>Interpr\u00e9tabilit\u00e9 et confiance humaines<\/strong><br \/>Les syst\u00e8mes sociaux exigent des justifications (\u00ab\u00a0Pourquoi devrais\u2011je te croire\u00a0?\u00a0\u00bb). Les r\u00e8gles servent de jalons v\u00e9rifiables. Un tenseur de 300\u00a0milliards de param\u00e8tres est plus difficile \u00e0 auditer.<\/li>\r\n<\/ol>\r\n<hr \/>\r\n<h3>Vers une synth\u00e8se\u00a0: \u00ab\u00a0la r\u00e8gle apr\u00e8s l\u2019apprentissage\u00a0\u00bb<\/h3>\r\n<ul>\r\n<li>Utiliser des mod\u00e8les denses et voraces en donn\u00e9es pour absorber la richesse chaotique.<\/li>\r\n<li>Sonder, distiller et <strong>extraire des r\u00e8gles provisoires<\/strong> de ces mod\u00e8les (interpr\u00e9tabilit\u00e9 m\u00e9caniste, r\u00e9gression symbolique, d\u00e9couverte causale).<\/li>\r\n<li>Traiter ces r\u00e8gles non comme des v\u00e9rit\u00e9s finales, mais comme des <em>interfaces<\/em> \u2014 r\u00e9sum\u00e9s concis \u00e0 raisonner, r\u00e9viser ou \u00e9carter quand ils cessent de fonctionner.<\/li>\r\n<\/ul>\r\n<hr \/>\r\n<h3>Mon point de vue<\/h3>\r\n<ul>\r\n<li><strong>R\u00e8gles et corr\u00e9lations forment un continuum de compression.<\/strong><br \/>Plus la description est courte, plus on perd d\u2019information.<\/li>\r\n<li><strong>Les LLM montrent qu\u2019un espace riche en corr\u00e9lations peut surpasser des r\u00e8gles \u00e9l\u00e9gantes sur de nombreuses t\u00e2ches,<\/strong> pr\u00e9cis\u00e9ment parce qu\u2019il conserve des nuances que ces r\u00e8gles \u00e9laguent.<\/li>\r\n<li><strong>Mais les syst\u00e8mes purement corr\u00e9latifs restent handicap\u00e9s pour l\u2019intervention d\u00e9lib\u00e9r\u00e9e, la preuve de s\u00fbret\u00e9 et l\u2019explication.<\/strong><br \/>Il faut donc des techniques permettant d\u2019<em>aller dans les deux sens<\/em>\u00a0: expansion vers l\u2019espace corr\u00e9latif pour capturer la r\u00e9alit\u00e9, puis contraction vers des abstractions de type r\u00e8gle pour le contr\u00f4le et la compr\u00e9hension.<\/li>\r\n<\/ul>\r\n<p>En ce sens, aucun camp ne \u00ab\u00a0gagne\u00a0\u00bb.<br \/>Les r\u00e8gles sont <strong>n\u00e9cessaires mais jamais suffisantes<\/strong>\u00a0; les corr\u00e9lations sont <strong>puissantes mais jamais compl\u00e8tes<\/strong>. Les avanc\u00e9es viennent de l\u2019ing\u00e9nierie du dialogue entre les deux.<\/p>\r\n<p><code>Gar\u00e7on ! Un autre svp ... avec beaucoup de gla\u00e7ons !<\/code><\/p>\r\n\r\n<p>&nbsp;<\/p>\r\n\r\n\r\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-143996\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-corr.png\" alt=\"\" width=\"1024\" height=\"1536\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-corr.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-corr-200x300.png 200w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-corr-683x1024.png 683w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-corr-768x1152.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\r\n<p style=\"text-align: center;\"><em>Illustration par ChatGPT 4o<\/em><\/p>","protected":false},"excerpt":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-143995\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/o3-origami-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p style=\"text-align: center;\"><em>Illustration par ChatGPT 4o<\/em><\/p>\n<blockquote>\n<p><em>Un peu plus tard, mais <a href=\"https:\/\/www.pauljorion.com\/blog\/2025\/04\/21\/humains-vs-ia-aristote-vs-platon\/\" target=\"_blank\" rel=\"noopener\">toujours au bord de la piscine<\/a><\/em> \ud83d\ude1c.<\/p>\n<\/blockquote>\n<p><strong>P.J.<\/strong> :<\/p>\n<blockquote>\n<p><em>Ne pensez-vous pas que les humains continueront de penser que les r\u00e8gles capturent mieux l&rsquo;essence-m\u00eame des choses, tandis que les [&hellip;]<\/em><\/p>\n<\/blockquote>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[4577,9540,9204,13,16,8,153],"tags":[10068,10066,4277,10067,4478,10061],"class_list":["post-143989","post","type-post","status-publish","format-standard","hentry","category-epistemologie","category-fondements-des-mathematiques","category-grands-modeles-de-langage","category-intelligence-artificielle","category-mathematiques","category-philosophie-des-sciences","category-physique","tag-chatgpt-o3","tag-compression-des-donnees","tag-epistemologie","tag-heuristique","tag-physique","tag-regles-vs-correlations"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/143989","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=143989"}],"version-history":[{"count":5,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/143989\/revisions"}],"predecessor-version":[{"id":143998,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/143989\/revisions\/143998"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=143989"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=143989"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=143989"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}