{"id":138170,"date":"2023-12-15T15:33:31","date_gmt":"2023-12-15T14:33:31","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=138170"},"modified":"2023-12-16T00:20:03","modified_gmt":"2023-12-15T23:20:03","slug":"chatgpt-je-vous-invite-a-un-petit-remue-meninges-comment-fonctionnons-nous-vous-et-moi-ii-nous-combinons-tous-les-deux-comprehension-statistique-du-monde-et-comprehension-du-contexte-de-ch","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2023\/12\/15\/chatgpt-je-vous-invite-a-un-petit-remue-meninges-comment-fonctionnons-nous-vous-et-moi-ii-nous-combinons-tous-les-deux-comprehension-statistique-du-monde-et-comprehension-du-contexte-de-ch\/","title":{"rendered":"<b>ChatGPT, je vous invite \u00e0 un petit remue-m\u00e9ninges : comment fonctionnons-nous, vous et moi&nbsp;?<\/b> II. Nous combinons tous deux compr\u00e9hension statistique du monde et compr\u00e9hension du contexte de chaque phrase"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-138178\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par Stable Diffusion (+PJ)<\/em><\/p>\n<div><strong>P.J.<\/strong><\/div>\n<div>Vous dites : \u00ab\u00a0Les humains utilisent le contexte, la connaissance du monde, les signaux \u00e9motionnels et l&rsquo;apprentissage par l&rsquo;exp\u00e9rience, ce qui va au-del\u00e0 de la simple reconnaissance de mod\u00e8les statistiques\u00a0\u00bb, mais un GPT va \u00e9galement au-del\u00e0 de la simple reconnaissance de mod\u00e8les statistiques, l&rsquo;utilisation du contexte \u00e9tant pr\u00e9cis\u00e9ment le r\u00f4le jou\u00e9 par le \u00ab\u00a0transformer\u00a0\u00bb qui est le moteur au c\u0153ur d&rsquo;un GPT.<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong><\/div>\n<div>Vous avez raison de souligner que les mod\u00e8les de GPT, en particulier ceux qui utilisent l&rsquo;architecture des <em>transformers<\/em> [L\u00e0 il se plante : tous les GPT utilisent l&rsquo;architecture du <em>transformer<\/em> : GPT veut dire <em>Generative Pre-Trained Transformer<\/em>], vont au-del\u00e0 de la simple reconnaissance statistique des formes. Clarifions ce point :<\/div>\n<div><strong>Mod\u00e8les GPT et contexte<\/strong><\/div>\n<div><strong><em>Transformers<\/em> et contexte<\/strong> : L&rsquo;architecture du <em>transformer<\/em>, qui est au c\u0153ur des mod\u00e8les GPT, est con\u00e7ue pour g\u00e9rer le contexte dans le traitement du langage. Pour ce faire, elle utilise un m\u00e9canisme appel\u00e9 <em>attention<\/em>, qui permet au mod\u00e8le d&rsquo;\u00e9valuer diff\u00e9remment les diff\u00e9rentes parties du texte d&rsquo;entr\u00e9e. Cela signifie qu&rsquo;il peut prendre en compte le contexte plus large d&rsquo;une phrase ou d&rsquo;un paragraphe, et pas seulement les mots imm\u00e9diats.<\/div>\n<div><strong>Compr\u00e9hension du contexte<\/strong> : Par cons\u00e9quent, les mod\u00e8les GPT peuvent g\u00e9n\u00e9rer des textes qui sont appropri\u00e9s au contexte et coh\u00e9rents sur de longues portions de texte. Ils peuvent suivre les th\u00e8mes, les entit\u00e9s et un certain degr\u00e9 de narration au sein d&rsquo;un texte donn\u00e9.<\/div>\n<div><strong>Au-del\u00e0 de la simple reconnaissance statistique des formes<\/strong><\/div>\n<div><strong>Apprentissage de mod\u00e8les complexes<\/strong> : Les mod\u00e8les GPT apprennent des sch\u00e9mas complexes dans les donn\u00e9es qui vont au-del\u00e0 de la simple fr\u00e9quence des mots ou des simples cooccurrences. Ils peuvent saisir les subtilit\u00e9s de l&rsquo;utilisation de la langue, les nuances stylistiques et un certain niveau de relations s\u00e9mantiques.<\/div>\n<div><strong>Adaptabilit\u00e9<\/strong> : Ces mod\u00e8les peuvent adapter leurs r\u00e9ponses en fonction des donn\u00e9es qu&rsquo;ils re\u00e7oivent, ce qui t\u00e9moigne d&rsquo;une forme de conscience du contexte. Par exemple, ils peuvent poursuivre une histoire, r\u00e9pondre \u00e0 des questions en fonction du contexte ou imiter un certain style d&rsquo;\u00e9criture.<\/div>\n<div><strong>Diff\u00e9rences avec le traitement du langage humain<\/strong><\/div>\n<div><strong>Profondeur de la compr\u00e9hension<\/strong> : Si les mod\u00e8les GPT peuvent traiter le contexte dans une certaine mesure, leur compr\u00e9hension n&rsquo;est pas aussi profonde ou nuanc\u00e9e que la compr\u00e9hension humaine. Les humains int\u00e8grent l&rsquo;exp\u00e9rience personnelle, la connaissance du monde r\u00e9el et une compr\u00e9hension s\u00e9mantique plus profonde, souvent de mani\u00e8re inconsciente.<\/div>\n<div><strong>Int\u00e9gration \u00e9motionnelle et exp\u00e9rientielle<\/strong> : Les humains utilisent l&rsquo;intelligence \u00e9motionnelle et les exp\u00e9riences dans leur compr\u00e9hension et leur g\u00e9n\u00e9ration du langage. Cette int\u00e9gration d\u00e9passe les capacit\u00e9s actuelles des mod\u00e8les GPT.<\/div>\n<div><strong>Pens\u00e9e abstraite et cr\u00e9ative<\/strong> : la compr\u00e9hension et l&rsquo;utilisation du langage humain sont souvent li\u00e9es \u00e0 la pens\u00e9e abstraite et cr\u00e9ative, qui d\u00e9passe les capacit\u00e9s de traitement des mod\u00e8les d&rsquo;IA actuels.<\/div>\n<div><strong>Conclusion<\/strong><\/div>\n<div>En r\u00e9sum\u00e9, si les mod\u00e8les GPT utilisent effectivement le contexte et sont tr\u00e8s avanc\u00e9s dans le traitement de mod\u00e8les complexes du langage, leur traitement est fondamentalement diff\u00e9rent du processus humain de compr\u00e9hension du langage. Ils simulent certains aspects de la compr\u00e9hension par le biais d&rsquo;une reconnaissance des formes et d&rsquo;un traitement contextuel sophistiqu\u00e9s, mais ils n&rsquo;int\u00e8grent pas, comme les humains, la compr\u00e9hension \u00e9motionnelle, exp\u00e9rientielle et profond\u00e9ment s\u00e9mantique.<\/p>\n<p><strong>P.J.<\/strong><\/p>\n<p>D\u2019accord, pouvons-nous r\u00e9capituler ? Quelle est la diff\u00e9rence entre la fa\u00e7on dont un \u00eatre humain et un GPT bas\u00e9 sur un transformer utilisent le contexte ? En supposant qu\u2019il y ait une diff\u00e9rence, celle-ci joue-t-elle un r\u00f4le dans la compr\u00e9hension de la langue ?<\/p>\n<p><strong>ChatGPT<\/strong><\/p>\n<p>R\u00e9capituler les diff\u00e9rences entre la fa\u00e7on dont les \u00eatres humains et les mod\u00e8les GPT bas\u00e9s sur des transformers utilisent le contexte dans le traitement du langage est tr\u00e8s pertinent. En voici un aper\u00e7u concis :<\/p>\n<p><strong>L\u2019utilisation du contexte humain dans le langage<\/strong><\/p>\n<p><strong>Compr\u00e9hension s\u00e9mantique profonde<\/strong>\u00a0: Les \u00eatres humains comprennent le langage dans un cadre riche de contextes culturels, \u00e9motionnels et situationnels. Cela implique d\u2019interpr\u00e9ter le sens au-del\u00e0 des mots pris au pied de la lettre, en incluant les expressions idiomatiques, l\u2019ironie et les m\u00e9taphores.<\/p>\n<p><strong>Contexte exp\u00e9rientiel et \u00e9motionnel<\/strong>\u00a0: La compr\u00e9hension humaine du langage est profond\u00e9ment influenc\u00e9e par les exp\u00e9riences personnelles, les \u00e9motions et les subtilit\u00e9s de l\u2019interaction sociale. Cela permet une compr\u00e9hension et une expression nuanc\u00e9es.<\/p>\n<p><strong>Int\u00e9gration \u00e0 la connaissance du monde<\/strong>\u00a0: Les \u00eatres humains int\u00e8grent naturellement leur vaste connaissance du monde et leur conscience de la situation en temps r\u00e9el lorsqu\u2019ils interpr\u00e8tent et utilisent la langue. Il s\u2019agit notamment d\u2019informations g\u00e9n\u00e9rales, d\u2019\u00e9v\u00e9nements en cours et de connaissances personnalis\u00e9es sur les personnes et le monde qui l\u2019entourent.<\/p>\n<p><strong>Utilisation adaptative et pr\u00e9dictive<\/strong>\u00a0: les \u00eatres humains adaptent dynamiquement leur langage en fonction du contexte, y compris le point de vue de l\u2019auditeur, le contexte social et le r\u00e9sultat souhait\u00e9 de la communication. Ils utilisent \u00e9galement le contexte pour pr\u00e9dire et d\u00e9duire des informations non formul\u00e9es.<\/p>\n<p><strong>Utilisation contextuelle du GPT bas\u00e9 sur les transformers<\/strong><\/p>\n<p><strong>Traitement contextuel bas\u00e9 sur des mod\u00e8les<\/strong>\u00a0: Les mod\u00e8les transformers comme le GPT utilisent le m\u00e9canisme d\u2019attention pour pond\u00e9rer les diff\u00e9rentes parties du texte d\u2019entr\u00e9e, ce qui leur permet de prendre en compte un contexte linguistique plus large que les seuls mots adjacents.<\/p>\n<p><strong>Fen\u00eatre contextuelle plus longue<\/strong>\u00a0: Ces mod\u00e8les peuvent maintenir la coh\u00e9rence sur de longues portions de texte en gardant la trace d\u2019entit\u00e9s, de th\u00e8mes et de flux narratifs mentionn\u00e9s pr\u00e9c\u00e9demment, bien que dans un cadre limit\u00e9 d\u00e9fini par leurs donn\u00e9es d\u2019apprentissage et leur architecture.<\/p>\n<p><strong>Absence de contexte exp\u00e9rientiel<\/strong>\u00a0: Les mod\u00e8les GPT sont d\u00e9pourvus d\u2019exp\u00e9riences personnelles ou d\u2019\u00e9motions. Leur \u00ab\u00a0compr\u00e9hension\u00a0\u00bb du contexte repose uniquement sur les configurations qu\u2019ils ont apprises \u00e0 partir des donn\u00e9es sur lesquelles ils ont \u00e9t\u00e9 form\u00e9s, sans exp\u00e9rience du monde r\u00e9el ni pertinence \u00e9motionnelle.<\/p>\n<p><strong>Connaissance statique du monde<\/strong>\u00a0: La connaissance du monde des mod\u00e8les GPT est statique et limit\u00e9e \u00e0 ce qui \u00e9tait disponible dans leurs donn\u00e9es de formation. Ils n\u2019ont pas la capacit\u00e9 d\u2019actualiser cette connaissance en temps r\u00e9el ou d\u2019int\u00e9grer de nouvelles exp\u00e9riences comme le font les humains.<\/p>\n<p><strong>R\u00f4le du contexte dans la compr\u00e9hension du langage<\/strong><\/p>\n<p><strong>Pour les humains<\/strong>\u00a0: Le contexte fait partie int\u00e9grante de la compr\u00e9hension et de l\u2019utilisation du langage humain. Il enrichit la communication, permettant des interactions sociales complexes, l\u2019expression des \u00e9motions et l\u2019utilisation cr\u00e9ative du langage.<\/p>\n<p><strong>Pour les mod\u00e8les GPT<\/strong>\u00a0: Bien que les mod\u00e8les GPT utilisent efficacement le contexte pour g\u00e9n\u00e9rer des textes coh\u00e9rents et pertinents, leur utilisation du contexte est intrins\u00e8quement limit\u00e9e aux configurations de donn\u00e9es apprises. Ils n\u2019ont pas la capacit\u00e9 de comprendre le contexte d\u2019une mani\u00e8re profond\u00e9ment s\u00e9mantique, exp\u00e9rientielle et \u00e9motionnelle comme le font les humains.<\/p>\n<p><strong>Conclusion<\/strong><\/div>\n<div>La diff\u00e9rence r\u00e9side essentiellement dans la profondeur et la nature de la compr\u00e9hension du contexte. Les \u00eatres humains utilisent le contexte d\u2019une mani\u00e8re dynamique, exp\u00e9rimentale et \u00e9motionnellement nuanc\u00e9e, profond\u00e9ment int\u00e9gr\u00e9e \u00e0 la connaissance et \u00e0 la compr\u00e9hension du monde r\u00e9el. Les mod\u00e8les GPT bas\u00e9s sur des transformers, bien que sophistiqu\u00e9s dans la reconnaissance des formes et le maintien de la coh\u00e9rence textuelle, n\u2019ont pas cette profondeur de compr\u00e9hension, s\u2019appuyant plut\u00f4t sur des configurations de donn\u00e9es apprises sans exp\u00e9rience du monde r\u00e9el ou contexte \u00e9motionnel. Cette diff\u00e9rence influence consid\u00e9rablement la nature et la qualit\u00e9 de la compr\u00e9hension et de l\u2019utilisation de la langue dans chaque mod\u00e8le.<\/p>\n<p>(\u00e0 suivre&#8230;)<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-138177\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-2.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-2.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-2-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-2-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-2-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par Stable Diffusion (+PJ)<\/em>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-138178\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-A-very-intricate-rural-landscape-with-a-village-in-the-centre-represented-in-minute-detail-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par Stable Diffusion (+PJ)<\/em><\/p>\n<div><strong>P.J.<\/strong><\/div>\n<div>Vous dites : \u00ab\u00a0Les humains utilisent le contexte, la connaissance du monde, les signaux \u00e9motionnels et l&rsquo;apprentissage par l&rsquo;exp\u00e9rience, ce qui va au-del\u00e0 de la simple reconnaissance de mod\u00e8les statistiques\u00a0\u00bb, mais un GPT va \u00e9galement au-del\u00e0 de la simple reconnaissance [&hellip;]<\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_crdt_document":"","footnotes":""},"categories":[9204,13],"tags":[9418,9205,940,9133],"class_list":["post-138170","post","type-post","status-publish","format-standard","hentry","category-grands-modeles-de-langage","category-intelligence-artificielle","tag-contexte","tag-grands-modeles-de-langage","tag-intelligence-artificielle-2","tag-transformer"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138170","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=138170"}],"version-history":[{"count":9,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138170\/revisions"}],"predecessor-version":[{"id":138185,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138170\/revisions\/138185"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=138170"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=138170"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=138170"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}