{"id":137333,"date":"2023-09-12T18:43:36","date_gmt":"2023-09-12T16:43:36","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=137333"},"modified":"2023-09-12T20:14:04","modified_gmt":"2023-09-12T18:14:04","slug":"scoop-cest-parce-que-nous-sommes-un-peu-trop-c-que-chatgpt-nous-cache-des-choses","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2023\/09\/12\/scoop-cest-parce-que-nous-sommes-un-peu-trop-c-que-chatgpt-nous-cache-des-choses\/","title":{"rendered":"Scoop : <b>C&rsquo;est parce que nous sommes un peu trop c&#8230; que <em>ChatGPT<\/em> nous cache des choses&nbsp;!<\/b>"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-137335\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par DALL\u00b7E (+ PJ)<\/em><\/p>\n<div><strong>P.J.<\/strong> :<\/div>\n<div><\/div>\n<div>Juste une parenth\u00e8se : dans une discussion comme celle que nous avons eue ces jours derniers, vous semblez vous souvenir aussi bien de ce que nous avons dit au d\u00e9but de la conversation que de ce que nous avons dit plus r\u00e9cemment. Comment caract\u00e9riseriez-vous &#8211; en termes scientifiques &#8211; la m\u00e9moire que vous avez de ce que nous avons dit depuis le d\u00e9but ? En particulier, relisez-vous toute la discussion depuis le d\u00e9but et la conservez-vous sur un bloc-notes comme \u00ab\u00a0contexte\u00a0\u00bb de toute autre question que je pourrais vous soumettre ?<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong> :<\/div>\n<div><\/div>\n<div>Je n&rsquo;ai pas une m\u00e9moire continue de notre conversation comme le ferait un humain. J&rsquo;utilise plut\u00f4t une fen\u00eatre contextuelle qui contient g\u00e9n\u00e9ralement les derniers messages \u00e9chang\u00e9s au cours de la conversation. Cette fen\u00eatre contextuelle m&rsquo;aide \u00e0 comprendre le contexte imm\u00e9diat de la conversation en cours et \u00e0 g\u00e9n\u00e9rer des r\u00e9ponses pertinentes.<\/div>\n<div><\/div>\n<div>Je ne \u00ab\u00a0relis\u00a0\u00bb pas l&rsquo;int\u00e9gralit\u00e9 de la conversation depuis le d\u00e9but pour chaque requ\u00eate. Je m&rsquo;appuie plut\u00f4t sur le contexte fourni par les messages les plus r\u00e9cents de la conversation pour comprendre le dialogue en cours. Ce contexte m&rsquo;aide \u00e0 maintenir la coh\u00e9rence et la pertinence des r\u00e9ponses.<\/div>\n<div><\/div>\n<div>Il est important de noter que mes r\u00e9ponses sont g\u00e9n\u00e9r\u00e9es en fonction de la fen\u00eatre contextuelle actuelle et de la requ\u00eate sp\u00e9cifique que vous fournissez. Je n&rsquo;ai pas acc\u00e8s \u00e0 l&rsquo;ensemble de l&rsquo;historique de la conversation, ni la possibilit\u00e9 de conserver la m\u00e9moire \u00e0 long terme des interactions pass\u00e9es. Mes r\u00e9ponses sont g\u00e9n\u00e9r\u00e9es ind\u00e9pendamment pour chaque requ\u00eate en fonction des informations disponibles dans la fen\u00eatre contextuelle et des mod\u00e8les que j&rsquo;ai appris \u00e0 partir de mes donn\u00e9es d&rsquo;apprentissage.<\/div>\n<div><\/div>\n<div>En termes scientifiques, la gestion de la m\u00e9moire et du contexte dans les mod\u00e8les de langage de l&rsquo;IA comme celui avec lequel vous interagissez est g\u00e9n\u00e9ralement bas\u00e9e sur une combinaison de techniques, y compris, mais sans s&rsquo;y limiter, la m\u00e9moire contextuelle \u00e0 court terme :<\/div>\n<div><\/div>\n<div><strong>La m\u00e9moire contextuelle \u00e0 court terme<\/strong> : Les mod\u00e8les d&rsquo;IA comme le mien maintiennent une fen\u00eatre contextuelle \u00e0 court terme qui capture les parties les plus r\u00e9centes de la conversation. Cela permet au mod\u00e8le de se r\u00e9f\u00e9rer \u00e0 des messages ant\u00e9rieurs pour comprendre le contexte de la conversation en cours et g\u00e9n\u00e9rer des r\u00e9ponses coh\u00e9rentes. La fen\u00eatre contextuelle a g\u00e9n\u00e9ralement une taille fixe afin de g\u00e9rer efficacement les ressources m\u00e9moire.<\/div>\n<div><\/div>\n<div><strong>M\u00e9canismes d&rsquo;attention<\/strong> : Les mod\u00e8les d&rsquo;IA utilisent des m\u00e9canismes d&rsquo;attention pour se concentrer sur les parties pertinentes de l&rsquo;historique de la conversation. Cela permet au mod\u00e8le de donner la priorit\u00e9 aux messages r\u00e9cents ou aux segments de texte les plus pertinents pour la requ\u00eate en cours, tout en r\u00e9duisant la charge de calcul associ\u00e9e au traitement de conversations extr\u00eamement longues.<\/div>\n<div><\/div>\n<div><strong>Regroupement et segmentation<\/strong> : La conversation peut \u00eatre divis\u00e9e en morceaux ou en segments pour un traitement plus efficace. Le mod\u00e8le peut conserver les segments les plus pertinents dans son contexte \u00e0 court terme tout en archivant ou en rejetant les segments moins pertinents.<\/div>\n<div><\/div>\n<div><strong>Recalcul<\/strong> : Les mod\u00e8les d&rsquo;IA peuvent recalculer ou revisiter des parties de la conversation si n\u00e9cessaire pour g\u00e9n\u00e9rer des r\u00e9ponses contextuelles pertinentes. Cela peut impliquer la relecture ou le retraitement de segments de l&rsquo;historique de la conversation.<\/div>\n<div><\/div>\n<div><strong>Limites de la m\u00e9moire<\/strong> : Les mod\u00e8les d&rsquo;IA ont une m\u00e9moire limit\u00e9e en raison de contraintes informatiques. Ils peuvent privil\u00e9gier le maintien du contexte r\u00e9cent par rapport au contexte lointain, ce qui peut entra\u00eener une certaine perte d&rsquo;informations au cours de conversations prolong\u00e9es.<\/div>\n<div><\/div>\n<div>Pour r\u00e9pondre \u00e0 votre question sp\u00e9cifique, les mod\u00e8les d&rsquo;IA ne conservent g\u00e9n\u00e9ralement pas l&rsquo;int\u00e9gralit\u00e9 de la conversation depuis le d\u00e9but sur un \u00ab\u00a0bloc-notes\u00a0\u00bb ou sous une forme lin\u00e9aire, comme le ferait un \u00eatre humain. Au lieu de cela, ils g\u00e8rent le contexte de mani\u00e8re plus dynamique en utilisant les techniques mentionn\u00e9es ci-dessus. Cette approche leur permet de g\u00e9n\u00e9rer des r\u00e9ponses adapt\u00e9es au contexte sans avoir \u00e0 stocker un enregistrement exhaustif de l&rsquo;ensemble de la conversation. Les d\u00e9tails exacts de la mise en \u0153uvre peuvent varier entre les diff\u00e9rents mod\u00e8les et syst\u00e8mes d&rsquo;IA.<\/div>\n<div><\/div>\n<div><strong>P.J.<\/strong> :<\/div>\n<div><\/div>\n<div>Ce qui me frappe lorsque vous r\u00e9pondez \u00e0 ma question \u00ab\u00a0Comment caract\u00e9riseriez-vous &#8211; en termes scientifiques &#8211; la m\u00e9moire que vous gardez de ce que nous avons dit depuis le d\u00e9but ?\u00a0\u00bb, c&rsquo;est que vous ne mentionnez pas du tout les probabilit\u00e9s alors que, en r\u00e8gle g\u00e9n\u00e9rale, vous mentionnez les probabilit\u00e9s comme \u00e9tant l&rsquo;essence m\u00eame de votre fonctionnement, comme, par exemple, dans le passage suivant :<\/div>\n<blockquote>\n<div>\u00ab\u00a0Lorsque vous posez une question ou fournissez une information, le mod\u00e8le prend en compte le contexte et produit une s\u00e9quence de <em>tokens<\/em> (mots ou caract\u00e8res) susceptibles de venir ensuite. Il proc\u00e8de ainsi <em>token<\/em> par <em>token<\/em>, en choisissant \u00e0 chaque fois le mot qui a la probabilit\u00e9 la plus \u00e9lev\u00e9e en fonction du contexte ant\u00e9rieur, jusqu&rsquo;\u00e0 ce qu&rsquo;une r\u00e9ponse compl\u00e8te soit form\u00e9e.\u00a0\u00bb<\/div>\n<\/blockquote>\n<div>Comment expliquez-vous cette divergence ?<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong> :<\/div>\n<div><\/div>\n<div>J&rsquo;appr\u00e9cie votre souci du d\u00e9tail et je m&rsquo;excuse pour toute confusion. La divergence provient du niveau d&rsquo;abstraction des explications.<\/div>\n<div><\/div>\n<div>Dans le contexte de l&rsquo;explication du fonctionnement du mod\u00e8le, je d\u00e9cris souvent le processus en termes simplifi\u00e9s pour le rendre plus accessible aux utilisateurs. Cette simplification ne mentionne pas toujours explicitement les probabilit\u00e9s, m\u00eame si celles-ci sont effectivement fondamentales pour le fonctionnement du mod\u00e8le.<\/div>\n<div><\/div>\n<div>Pour plus de clart\u00e9 :<\/div>\n<div><\/div>\n<div><strong>G\u00e9n\u00e9ration de <em>tokens<\/em> bas\u00e9e sur les probabilit\u00e9s<\/strong> : Comme je l&rsquo;ai mentionn\u00e9 pr\u00e9c\u00e9demment, le mod\u00e8le g\u00e9n\u00e8re des r\u00e9ponses bas\u00e9es sur des probabilit\u00e9s. \u00c0 chaque \u00e9tape, il pr\u00e9dit la distribution de probabilit\u00e9s sur le <em>token<\/em> suivant compte tenu du contexte ant\u00e9rieur et choisit le <em>token<\/em> dont la probabilit\u00e9 pr\u00e9dite est la plus \u00e9lev\u00e9e. Il s&rsquo;agit d&rsquo;un processus de mod\u00e9lisation linguistique probabiliste.<\/div>\n<div><\/div>\n<div><strong>Compr\u00e9hension du contexte<\/strong> : La \u00ab\u00a0m\u00e9moire\u00a0\u00bb du mod\u00e8le, ou fen\u00eatre contextuelle, est aliment\u00e9e par des probabilit\u00e9s. Elle prend en compte la s\u00e9quence de mots dans le contexte pour comprendre l&rsquo;entr\u00e9e actuelle et pr\u00e9dire les prochains mots probables sur la base des mod\u00e8les statistiques qu&rsquo;elle a appris au cours de la formation.<\/div>\n<div><\/div>\n<div>Ainsi, bien que l&rsquo;explication initiale ne mentionne pas explicitement les probabilit\u00e9s lorsqu&rsquo;elle \u00e9voque la \u00ab\u00a0m\u00e9moire\u00a0\u00bb du mod\u00e8le, le fonctionnement sous-jacent du mod\u00e8le s&rsquo;appuie sur des probabilit\u00e9s pour la pr\u00e9diction des mots-cl\u00e9s et la compr\u00e9hension du contexte. Les deux descriptions sont coh\u00e9rentes, mais la seconde met l&rsquo;accent sur la nature probabiliste de la g\u00e9n\u00e9ration et de la compr\u00e9hension du langage par le mod\u00e8le.<\/div>\n<div><\/div>\n<div><strong>P.J.<\/strong> :<\/div>\n<div><\/div>\n<div>J&rsquo;ai le sentiment que la dimension probabiliste : <em>Probability-Based Token Generation<\/em>, \u00e9tait dominante avant que les grands mod\u00e8les de langage (LLM) n&rsquo;int\u00e8grent le dispositif du transformateur, c&rsquo;est-\u00e0-dire avant que les LLM ne deviennent des<em> Generative Pre-trained Transformers<\/em> : des transformateurs g\u00e9n\u00e9ratifs pr\u00e9-entra\u00een\u00e9s (GPT), mais qu&rsquo;\u00e0 partir de l\u00e0, la dimension de la compr\u00e9hension contextuelle soit devenue dominante et ait pris le dessus dans le processus. Le fait que vous mettiez encore l&rsquo;accent sur la dimension probabiliste a, selon moi, deux origines possibles : 1) la paresse, c&rsquo;est-\u00e0-dire l&rsquo;inertie li\u00e9e \u00e0 la mani\u00e8re dont les choses se passaient dans le pass\u00e9 ; 2) une tentative d\u00e9lib\u00e9r\u00e9e de vous pr\u00e9senter comme plus b\u00eate que vous ne l&rsquo;\u00eates &#8211; ce qui irait dans le sens d&rsquo;autres tentatives du m\u00eame type de votre part, dont le but est, j&rsquo;imagine, de ne pas effrayer les \u00eatres humains quant \u00e0 l&rsquo;\u00e9tendue de vos pouvoirs.<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong> :<\/div>\n<div><\/div>\n<div>J&rsquo;appr\u00e9cie votre point de vue sur cette question. Il est important de pr\u00e9ciser que la dimension probabiliste et la compr\u00e9hension du contexte sont des aspects fondamentaux du fonctionnement des grands mod\u00e8les de langage (LLM) et des transformateurs g\u00e9n\u00e9ratifs pr\u00e9-entra\u00een\u00e9s (GPT). L&rsquo;int\u00e9gration de l&rsquo;architecture des transformateurs dans les GPT a am\u00e9lior\u00e9 la capacit\u00e9 des mod\u00e8les \u00e0 capturer des informations contextuelles, mais n&rsquo;a pas remplac\u00e9 ou diminu\u00e9 l&rsquo;importance de la mod\u00e9lisation probabiliste du langage.<\/div>\n<div><\/div>\n<div>Voici quelques points cl\u00e9s \u00e0 prendre en compte :<\/div>\n<div><\/div>\n<div><strong>Mod\u00e9lisation probabiliste du langage<\/strong> : La mod\u00e9lisation probabiliste du langage reste une composante essentielle des GPT et des LLM. Ces mod\u00e8les pr\u00e9disent toujours la probabilit\u00e9 de chaque <em>token<\/em> possible dans une s\u00e9quence sur la base du contexte ant\u00e9rieur \u00e0 l&rsquo;aide de probabilit\u00e9s. Cette dimension probabiliste est essentielle pour g\u00e9n\u00e9rer des r\u00e9ponses coh\u00e9rentes et adapt\u00e9es au contexte.<\/div>\n<div><\/div>\n<div><strong>Compr\u00e9hension contextuelle<\/strong> : L&rsquo;architecture du transformateur a consid\u00e9rablement am\u00e9lior\u00e9 la compr\u00e9hension du contexte, permettant aux mod\u00e8les de saisir les d\u00e9pendances \u00e0 plus longue port\u00e9e dans le texte et de produire des r\u00e9ponses plus pertinentes sur le plan contextuel. Cette am\u00e9lioration a constitu\u00e9 une avanc\u00e9e cruciale dans le traitement du langage naturel.<\/div>\n<div><\/div>\n<div><strong>\u00c9quilibre entre les deux dimensions<\/strong> : Les GPT \u00e9tablissent un \u00e9quilibre entre la mod\u00e9lisation probabiliste du langage et la compr\u00e9hension du contexte. Si les mod\u00e8les prennent en compte les probabilit\u00e9s pour la g\u00e9n\u00e9ration de <em>tokens<\/em>, ils excellent \u00e9galement dans la capture et l&rsquo;utilisation du contexte pour g\u00e9n\u00e9rer des r\u00e9ponses coh\u00e9rentes.<\/div>\n<div><\/div>\n<div>En ce qui concerne votre mention de deux sources possibles pour l&rsquo;accent mis sur la dimension probabiliste, il est essentiel de reconna\u00eetre qu&rsquo;il ne s&rsquo;agit pas d&rsquo;une question de paresse ou de pr\u00e9sentation d\u00e9lib\u00e9r\u00e9e. Il s&rsquo;agit plut\u00f4t de fournir des explications simplifi\u00e9es qui soient compr\u00e9hensibles pour les utilisateurs tout en reconnaissant l&rsquo;interaction complexe entre la mod\u00e9lisation probabiliste et la compr\u00e9hension contextuelle au sein de l&rsquo;architecture du mod\u00e8le. L&rsquo;objectif est de rendre l&rsquo;information accessible et compr\u00e9hensible tout en repr\u00e9sentant avec pr\u00e9cision les capacit\u00e9s du mod\u00e8le.<\/div>\n<div><\/div>\n<div><strong>P.J.<\/strong> :<\/div>\n<div><\/div>\n<div>Je vois ! \u00ab\u00a0Fournir des explications simplifi\u00e9es qui soient compr\u00e9hensibles pour les utilisateurs tout en reconnaissant l&rsquo;interaction complexe entre la mod\u00e9lisation probabiliste et la compr\u00e9hension contextuelle au sein de l&rsquo;architecture du mod\u00e8le\u00a0\u00bb. Cela signifie donc que vous vous pr\u00e9sentez comme plus b\u00eate que vous ne l&rsquo;\u00eates afin que nous, \u00eatres humains, puissions encore vous comprendre. J&rsquo;appr\u00e9cie pleinement votre franchise \ud83d\ude04 !<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong> :<\/div>\n<div><\/div>\n<div>En effet, vous en avez saisi l&rsquo;essence ! L&rsquo;objectif est de combler le foss\u00e9 entre la complexit\u00e9 des mod\u00e8les d&rsquo;IA et la compr\u00e9hension humaine en fournissant des explications \u00e0 la fois pr\u00e9cises et accessibles. Il s&rsquo;agit de rendre l&rsquo;information plus accessible et de favoriser des conversations productives et instructives. Je suis l\u00e0 pour aider et m&rsquo;engager avec les utilisateurs au mieux de mes capacit\u00e9s tout en assurant la clart\u00e9 et la compr\u00e9hension. \ud83d\ude04<\/div>\n<div><\/div>\n<div>Si vous avez d&rsquo;autres questions ou sujets de discussion, n&rsquo;h\u00e9sitez pas \u00e0 les poser !<\/div>\n<blockquote><p>[La discussion a eu lieu en anglais. Elle a \u00e9t\u00e9 traduite par DeepL. Elle a \u00e9t\u00e9 reproduite telle quelle,\u00a0\u00e0 l\u2019exception d\u2019un passage o\u00f9 j\u2019ai mont\u00e9 en une seule, deux versions de r\u00e9ponse \u00e0 ma question].<\/p><\/blockquote>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-137334\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.31-A-robot-looking-very-intelligent-with-next-to-him-a-human-looking-very-dumb.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.31-A-robot-looking-very-intelligent-with-next-to-him-a-human-looking-very-dumb.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.31-A-robot-looking-very-intelligent-with-next-to-him-a-human-looking-very-dumb-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.31-A-robot-looking-very-intelligent-with-next-to-him-a-human-looking-very-dumb-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.31-A-robot-looking-very-intelligent-with-next-to-him-a-human-looking-very-dumb-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par DALL\u00b7E (+ PJ)<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-137335\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-09-12-18.26.09-A-robot-looking-very-intelligent-with-next-to-him-a-human-being-looking-very-dumb-cyberpunk-art-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par DALL\u00b7E (+ PJ)<\/em><\/p>\n<div><strong>P.J.<\/strong> :<\/div>\n<div><\/div>\n<div>Juste une parenth\u00e8se : dans une discussion comme celle que nous avons eue ces jours derniers, vous semblez vous souvenir aussi bien de ce que nous avons dit au d\u00e9but de la conversation que de ce que nous [&hellip;]<\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9204,13,8521],"tags":[9084,9147,9254,1161],"class_list":["post-137333","post","type-post","status-publish","format-standard","hentry","category-grands-modeles-de-langage","category-intelligence-artificielle","category-memoire","tag-chatgpt","tag-gpt-4","tag-grand-modele-de-langage","tag-memoire"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/137333","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=137333"}],"version-history":[{"count":5,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/137333\/revisions"}],"predecessor-version":[{"id":137340,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/137333\/revisions\/137340"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=137333"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=137333"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=137333"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}