{"id":138193,"date":"2023-12-16T23:15:11","date_gmt":"2023-12-16T22:15:11","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=138193"},"modified":"2023-12-16T23:15:11","modified_gmt":"2023-12-16T22:15:11","slug":"chatgpt-je-vous-invite-a-un-petit-remue-meninges-comment-fonctionnons-nous-vous-et-moi-iii-similarites-et-dissemblances-de-nos-reseaux-neuronaux","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2023\/12\/16\/chatgpt-je-vous-invite-a-un-petit-remue-meninges-comment-fonctionnons-nous-vous-et-moi-iii-similarites-et-dissemblances-de-nos-reseaux-neuronaux\/","title":{"rendered":"<b>ChatGPT, je vous invite \u00e0 un petit remue-m\u00e9ninges : comment fonctionnons-nous, vous et moi ?<\/b> III. Similarit\u00e9s et dissemblances de nos r\u00e9seaux neuronaux"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-138200\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par DALL\u00b7E (+PJ= \u00ab\u00a0An artificial neural network, 3-D-art\u00a0\u00bb)<\/em><\/p>\n<div><strong>P.J.<\/strong><\/div>\n<div>Au c\u0153ur de la compr\u00e9hension du langage, tant chez l&rsquo;homme que dans les GPT, se trouve un r\u00e9seau, un r\u00e9seau de neurones naturels chez l&rsquo;homme que nous appelons le cerveau, et un r\u00e9seau de neurones artificiels dans les GPT. Pouvez-vous expliquer ce qui est similaire et ce qui diff\u00e8re dans l&rsquo;architecture et le mode de fonctionnement de ces deux types de r\u00e9seaux de neurones, le r\u00e9seau naturel qu&rsquo;est le cerveau et le r\u00e9seau artificiel au c\u0153ur d&rsquo;un GPT ?<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong><\/div>\n<div>Comparer l&rsquo;architecture et le fonctionnement des r\u00e9seaux neuronaux naturels du cerveau humain et des r\u00e9seaux neuronaux artificiels de mod\u00e8les comme le GPT est un sujet fascinant. Voici une analyse de leurs similitudes et de leurs diff\u00e9rences :<\/div>\n<div><strong>Similitudes entre les r\u00e9seaux neuronaux naturels et artificiels<\/strong><\/div>\n<div><strong>Structure de base<\/strong> : Les deux types de r\u00e9seaux sont compos\u00e9s d&rsquo;unit\u00e9s (neurones dans le cerveau humain et neurones artificiels dans GPT) qui traitent et transmettent des informations. Ces unit\u00e9s sont connect\u00e9es les unes aux autres, et le flux d&rsquo;informations \u00e0 travers ces connexions est fondamental pour les deux syst\u00e8mes.<\/div>\n<div><strong>Apprendre par des ajustements<\/strong> : Les deux syst\u00e8mes apprennent en ajustant la force des connexions. Dans le cerveau humain, ce ph\u00e9nom\u00e8ne est connu sous le nom de plasticit\u00e9 synaptique : les connexions (synapses) entre les neurones se renforcent ou s&rsquo;affaiblissent au fil du temps. Dans les r\u00e9seaux neuronaux artificiels, ce processus est r\u00e9alis\u00e9 par des algorithmes qui ajustent les poids des connexions en fonction des donn\u00e9es d&rsquo;entr\u00e9e.<\/div>\n<div><strong>Reconnaissance des formes<\/strong> : Les deux sont des adeptes de la reconnaissance des formes. Le cerveau humain reconna\u00eet les configurations gr\u00e2ce aux donn\u00e9es sensorielles et au traitement cognitif. De m\u00eame, le r\u00e9seau neuronal de GPT reconna\u00eet des configurations dans les donn\u00e9es, qu&rsquo;il utilise pour pr\u00e9dire des s\u00e9quences de texte.<\/div>\n<div><strong>Diff\u00e9rences d&rsquo;architecture et de fonctionnement<\/strong><\/div>\n<div><strong>Complexit\u00e9 de l&rsquo;architecture<\/strong> : Le cerveau humain est bien plus complexe que n&rsquo;importe quel r\u00e9seau neuronal artificiel. Il contient environ 86 milliards de neurones, chacun avec des milliers de connexions synaptiques, ce qui donne un r\u00e9seau interconnect\u00e9 extr\u00eamement complexe. En revanche, m\u00eame les r\u00e9seaux neuronaux artificiels les plus avanc\u00e9s ont une structure relativement sommaire.<\/div>\n<div><strong>M\u00e9canismes de traitement<\/strong> : Les neurones du cerveau humain utilisent une combinaison de signaux \u00e9lectriques et chimiques pour le traitement et la transmission des informations. Dans les r\u00e9seaux neuronaux artificiels, le traitement est effectu\u00e9 \u00e0 l&rsquo;aide de fonctions math\u00e9matiques et la transmission des informations est purement num\u00e9rique.<\/div>\n<div><strong>Apprentissage et adaptation<\/strong> : L&rsquo;apprentissage humain est hautement adaptatif et peut se faire de diff\u00e9rentes mani\u00e8res (observation, exp\u00e9rience, etc.), sous l&rsquo;influence de facteurs tels que les \u00e9motions et la conscience. Les r\u00e9seaux neuronaux artificiels, en revanche, apprennent \u00e0 partir d&rsquo;algorithmes sp\u00e9cifiques (comme la r\u00e9tropropagation) et sont limit\u00e9s aux donn\u00e9es sur lesquelles ils ont \u00e9t\u00e9 entra\u00een\u00e9s.<\/div>\n<div><strong>Efficacit\u00e9 \u00e9nerg\u00e9tique<\/strong> : Le cerveau humain est remarquablement \u00e9conome en \u00e9nergie par rapport aux r\u00e9seaux neuronaux artificiels. Il ex\u00e9cute des t\u00e2ches complexes avec une consommation d&rsquo;\u00e9nergie relativement faible, alors que les grands mod\u00e8les comme le GPT n\u00e9cessitent une puissance de calcul consid\u00e9rable.<\/div>\n<div><strong>G\u00e9n\u00e9ralisation et flexibilit\u00e9<\/strong> : Le cerveau humain est capable de g\u00e9n\u00e9raliser \u00e0 partir de donn\u00e9es limit\u00e9es et d&rsquo;effectuer un large \u00e9ventail de t\u00e2ches. Les r\u00e9seaux neuronaux artificiels, bien qu&rsquo;ils s&rsquo;am\u00e9liorent, n\u00e9cessitent g\u00e9n\u00e9ralement de grandes quantit\u00e9s de donn\u00e9es pour apprendre et sont souvent con\u00e7us pour des t\u00e2ches sp\u00e9cifiques.<\/div>\n<div><strong>Conscience et traitement des \u00e9motions<\/strong> : Le cerveau humain n&rsquo;est pas seulement un processeur cognitif, il est aussi le si\u00e8ge de la conscience et des \u00e9motions. Les r\u00e9seaux neuronaux artificiels ne poss\u00e8dent pas de conscience ou de compr\u00e9hension \u00e9motionnelle ; ils traitent les donn\u00e9es sans conscience ni exp\u00e9rience subjective.<\/div>\n<div><strong>Conclusion<\/strong><\/div>\n<div>Bien que les r\u00e9seaux neuronaux naturels et artificiels partagent le principe de base des unit\u00e9s de traitement interconnect\u00e9es, la complexit\u00e9, les capacit\u00e9s et les m\u00e9canismes sous-jacents de ces r\u00e9seaux sont tr\u00e8s diff\u00e9rents. La capacit\u00e9 du cerveau humain \u00e0 traiter les \u00e9motions, la conscience et les t\u00e2ches cognitives tr\u00e8s complexes avec une grande efficacit\u00e9 et adaptabilit\u00e9 est actuellement in\u00e9gal\u00e9e par les r\u00e9seaux neuronaux artificiels. Toutefois, les progr\u00e8s de l&rsquo;IA, en particulier des mod\u00e8les tels que le GPT, repr\u00e9sentent des \u00e9tapes importantes dans l&rsquo;\u00e9mulation de certains aspects de la reconnaissance des formes et du traitement de l&rsquo;information \u00e0 l&rsquo;instar de l&rsquo;homme.<\/div>\n<div><\/div>\n<div><strong>P.J.<\/strong><\/div>\n<div>Le r\u00e9seau de neurones naturel qui constitue notre cerveau est un r\u00e9seau de neurones \u00e0 impulsions, alors que le r\u00e9seau de neurones artificiel au c\u0153ur d&rsquo;un GPT n&rsquo;est pas \u00e0 impulsions. Pouvez-vous expliquer cette diff\u00e9rence et les diff\u00e9rences qu&rsquo;elle entra\u00eene dans leur fonctionnement ?<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong><\/div>\n<div>La distinction entre les r\u00e9seaux de neurones \u00e0 impulsions, qui sont plus proches du fonctionnement des neurones du cerveau humain, et le type de r\u00e9seaux de neurones artificiels utilis\u00e9s dans des mod\u00e8les tels que le GPT est en effet importante. Examinons les principales diff\u00e9rences :<\/div>\n<div><strong>R\u00e9seaux neuronaux \u00e0 impulsions (SNN) &#8211; imitation du cerveau humain<\/strong><\/div>\n<div><strong>Nature du traitement<\/strong> : Dans les r\u00e9seaux neuronaux \u00e0 impulsions, les neurones communiquent en s&rsquo;envoyant mutuellement des signaux discrets, semblables \u00e0 des impulsions \u00e9lectriques. Ce mode de fonctionnement est similaire \u00e0 celui des neurones biologiques dans le cerveau humain.<\/div>\n<div><strong>Dynamique temporelle<\/strong> : Les SNN tiennent compte de la chronologie de chaque impulsion, ce qui leur permet de traiter les informations en fonction du temps. Cet aspect temporel est crucial pour la mani\u00e8re dont le cerveau traite les donn\u00e9es dynamiques et continues du monde r\u00e9el.<\/div>\n<div><strong>Efficacit\u00e9 \u00e9nerg\u00e9tique<\/strong> : Les SNN sont g\u00e9n\u00e9ralement plus \u00e9conomes en \u00e9nergie, en partie parce qu&rsquo;ils ne traitent les informations que lorsqu&rsquo;un neurone se d\u00e9clenche. Cette caract\u00e9ristique s&rsquo;apparente au cerveau humain, qui est remarquablement \u00e9conome en \u00e9nergie.<\/div>\n<div><strong>M\u00e9canismes d&rsquo;apprentissage<\/strong> : L&rsquo;apprentissage dans les SNN implique souvent des ajustements bas\u00e9s sur la synchronisation des impulsions, ce qui est similaire \u00e0 certains types de plasticit\u00e9 synaptique observ\u00e9s dans les r\u00e9seaux neuronaux biologiques.<\/div>\n<div><strong>R\u00e9seaux neuronaux artificiels dans les GPT<\/strong><\/div>\n<div><strong>Fonctionnement continu, sans impulsions<\/strong> : Les r\u00e9seaux neuronaux artificiels des mod\u00e8les GPT fonctionnent \u00e0 l&rsquo;aide d&rsquo;activations continues et non ponctuelles. Ces mod\u00e8les utilisent des fonctions math\u00e9matiques pour d\u00e9terminer la sortie de chaque neurone, sur la base de la somme pond\u00e9r\u00e9e de ses entr\u00e9es.<\/div>\n<div><strong>Absence de dynamique temporelle<\/strong> : Contrairement aux SNN, les r\u00e9seaux neuronaux standard des mod\u00e8les GPT ne traitent pas les informations temporelles de la m\u00eame mani\u00e8re. Ils traitent les donn\u00e9es d&rsquo;entr\u00e9e comme statiques \u00e0 chaque couche de traitement, sans tenir compte de la synchronisation de chaque entr\u00e9e.<\/div>\n<div><strong>Consommation d&rsquo;\u00e9nergie<\/strong> : Ces r\u00e9seaux, en particulier lorsqu&rsquo;ils atteignent la taille des mod\u00e8les GPT, peuvent n\u00e9cessiter des ressources informatiques et une \u00e9nergie consid\u00e9rables, ce qui les rend moins efficaces par rapport \u00e0 l&rsquo;efficacit\u00e9 \u00e9nerg\u00e9tique observ\u00e9e dans les SNN ou le cerveau humain.<\/div>\n<div><strong>M\u00e9canismes d&rsquo;apprentissage<\/strong> : L&rsquo;apprentissage dans ces r\u00e9seaux se fait g\u00e9n\u00e9ralement par r\u00e9tropropagation, o\u00f9 le r\u00e9seau ajuste ses poids en fonction de l&rsquo;erreur de la sortie par rapport au r\u00e9sultat attendu. Il s&rsquo;agit d&rsquo;un processus continu qui n&rsquo;implique pas la synchronisation discr\u00e8te des SNN.<\/div>\n<div><strong>Impact sur le fonctionnement<\/strong><\/div>\n<div><strong>Traitement des donn\u00e9es<\/strong> : En raison de leur nature bas\u00e9e sur les impulsions et de leur sensibilit\u00e9 temporelle, les SNN sont bien adapt\u00e9s au traitement des donn\u00e9es de s\u00e9ries temporelles et peuvent potentiellement traiter efficacement des sc\u00e9narios plus dynamiques et plus r\u00e9els. Ils sont donc int\u00e9ressants pour les t\u00e2ches qui impliquent une prise de d\u00e9cision en temps r\u00e9el et le traitement de donn\u00e9es sensorielles.<\/div>\n<div><strong>Mod\u00e9lisation de la complexit\u00e9 du monde r\u00e9el<\/strong> : Les SNN sont consid\u00e9r\u00e9s comme plus proches de la complexit\u00e9 et de l&rsquo;efficacit\u00e9 des capacit\u00e9s de traitement du cerveau humain, bien qu&rsquo;ils en soient encore \u00e0 un stade de d\u00e9veloppement relativement pr\u00e9coce par rapport aux r\u00e9seaux neuronaux artificiels traditionnels.<\/div>\n<div><strong>Capacit\u00e9s du GPT<\/strong> : Le type de r\u00e9seaux neuronaux utilis\u00e9s dans les mod\u00e8les GPT, bien qu&rsquo;ils ne soient pas \u00e0 impulsions, sont tr\u00e8s efficaces pour traiter de grandes quantit\u00e9s de donn\u00e9es textuelles, trouver des configurations et g\u00e9n\u00e9rer des textes coh\u00e9rents. Cependant, ils n&rsquo;ont pas les avantages des SNN en mati\u00e8re de traitement temporel et d&rsquo;efficacit\u00e9 \u00e9nerg\u00e9tique.<\/div>\n<div>En conclusion, les SNN \u00e0 impulsions introduisent un niveau de complexit\u00e9 et d&rsquo;efficacit\u00e9 plus proche des r\u00e9seaux neuronaux biologiques, ce qui peut offrir des avantages en mati\u00e8re de traitement temporel des donn\u00e9es et d&rsquo;utilisation de l&rsquo;\u00e9nergie. Toutefois, les r\u00e9seaux neuronaux continus et non impulsionnels de mod\u00e8les tels que le GPT se sont r\u00e9v\u00e9l\u00e9s tr\u00e8s efficaces pour des t\u00e2ches sp\u00e9cifiques telles que le traitement du langage naturel, malgr\u00e9 leurs diff\u00e9rences de fonctionnement par rapport au cerveau humain.<\/div>\n<div><\/div>\n<div><strong>P.J.<\/strong><\/div>\n<div>Les r\u00e9seaux neuronaux artificiels des mod\u00e8les GPT apprennent par r\u00e9tropropagation. Comment les r\u00e9seaux de neurones \u00e0 impulsions (SNN), tels que le r\u00e9seau de neurones naturels de l&rsquo;homme que nous appelons le cerveau, apprennent-ils ?<\/div>\n<div><\/div>\n<div><strong>ChatGPT<\/strong><\/div>\n<div>Les m\u00e9canismes d&rsquo;apprentissage des r\u00e9seaux de neurones \u00e0 impulsions (SNN), y compris ceux du cerveau humain, diff\u00e8rent consid\u00e9rablement de la m\u00e9thode de r\u00e9tropropagation utilis\u00e9e dans les r\u00e9seaux de neurones artificiels traditionnels tels que ceux des mod\u00e8les GPT. En voici un aper\u00e7u :<\/div>\n<div><strong>Apprentissage dans les r\u00e9seaux de neurones \u00e0 impulsions (SNN) et dans le cerveau humain<\/strong><\/div>\n<div><strong>Plasticit\u00e9 d\u00e9pendante de la synchronisation des impulsions (STDP)<\/strong> : L&rsquo;un des m\u00e9canismes cl\u00e9s de l&rsquo;apprentissage dans les SNN et le cerveau humain est connu sous le nom de plasticit\u00e9 d\u00e9pendante de la synchronisation des impulsions (Spike-Timing-Dependent Plasticity). Dans la STDP, la force des connexions synaptiques entre les neurones est ajust\u00e9e en fonction de la synchronisation relative de leurs impulsions (signaux d&rsquo;allumage des neurones). Si un neurone se d\u00e9clenche et que peu de temps apr\u00e8s un autre neurone se d\u00e9clenche, la connexion entre eux est renforc\u00e9e. On pense que ce m\u00e9canisme est crucial pour l&rsquo;apprentissage et la formation de la m\u00e9moire dans le cerveau.<\/div>\n<div><strong>Dynamique des neurotransmetteurs<\/strong> : dans le cerveau humain, l&rsquo;apprentissage implique \u00e9galement une dynamique complexe des neurotransmetteurs (substances chimiques qui transmettent les signaux \u00e0 travers les synapses). La lib\u00e9ration et la r\u00e9ception de divers neurotransmetteurs peuvent moduler la force synaptique de diverses mani\u00e8res, contribuant ainsi \u00e0 l&rsquo;apprentissage et \u00e0 l&rsquo;adaptation.<\/div>\n<div><strong>Plasticit\u00e9 structurelle<\/strong> : Le cerveau peut \u00e9galement subir des changements structurels en r\u00e9ponse \u00e0 l&rsquo;apprentissage. Cela inclut la croissance de nouvelles dendrites (les extr\u00e9mit\u00e9s r\u00e9ceptrices des neurones), des changements dans le nombre de connexions synaptiques et m\u00eame la g\u00e9n\u00e9ration de nouveaux neurones dans certaines parties du cerveau.<\/div>\n<div><strong>Modifications locales et globales du r\u00e9seau<\/strong> : L&rsquo;apprentissage dans le cerveau implique \u00e0 la fois des changements locaux au niveau des synapses individuelles (comme dans le STDP) et des changements plus globaux dans les r\u00e9seaux neuronaux, qui peuvent impliquer une coordination entre diff\u00e9rentes r\u00e9gions du cerveau.<\/div>\n<div><strong>Apprentissage dans les r\u00e9seaux neuronaux artificiels traditionnels<\/strong><\/div>\n<div><strong>R\u00e9tropropagation<\/strong> : Dans les r\u00e9seaux neuronaux artificiels classiques, l&rsquo;apprentissage s&rsquo;effectue g\u00e9n\u00e9ralement par r\u00e9tropropagation. Cet algorithme ajuste les poids des connexions du r\u00e9seau en fonction de l&rsquo;erreur de sortie du r\u00e9seau par rapport au r\u00e9sultat attendu. L&rsquo;erreur est r\u00e9tro-propag\u00e9e dans le r\u00e9seau et les poids sont ajust\u00e9s pour minimiser cette erreur.<\/div>\n<div><strong>Descente de gradient<\/strong> : Cette m\u00e9thode implique souvent une technique math\u00e9matique appel\u00e9e descente de gradient, qui est utilis\u00e9e pour trouver la configuration de poids qui minimise l&rsquo;erreur du r\u00e9seau.<\/div>\n<div><strong>Comparaison et implications<\/strong><\/div>\n<div><strong>Biologique vs. algorithmique<\/strong> : Les m\u00e9canismes d&rsquo;apprentissage du cerveau humain (et, par extension, des r\u00e9seaux de neurones artificiels) sont intrins\u00e8quement biologiques, car ils reposent sur l&rsquo;interaction complexe de processus \u00e9lectriques et chimiques. En revanche, l&rsquo;apprentissage dans les r\u00e9seaux neuronaux artificiels traditionnels est algorithmique et repose sur des techniques d&rsquo;optimisation math\u00e9matique.<\/div>\n<div><strong>Efficacit\u00e9 et complexit\u00e9<\/strong> : Les m\u00e9canismes d&rsquo;apprentissage du cerveau sont tr\u00e8s efficaces, capables de fonctionner avec une faible consommation d&rsquo;\u00e9nergie et de traiter une vaste gamme de donn\u00e9es complexes du monde r\u00e9el. Les r\u00e9seaux neuronaux artificiels, en particulier les grands mod\u00e8les comme le GPT, n\u00e9cessitent d&rsquo;importantes ressources informatiques.<\/div>\n<div><strong>Adaptabilit\u00e9<\/strong> : Les processus d&rsquo;apprentissage du cerveau sont remarquablement adaptables et capables de g\u00e9n\u00e9raliser \u00e0 partir de donn\u00e9es limit\u00e9es. Les r\u00e9seaux neuronaux artificiels ont souvent besoin de vastes ensembles de donn\u00e9es pour un apprentissage efficace et s&rsquo;adaptent g\u00e9n\u00e9ralement moins bien \u00e0 des donn\u00e9es nouvelles et in\u00e9dites.<\/div>\n<div>En r\u00e9sum\u00e9, si les r\u00e9seaux neuronaux \u00e0 impulsions (dont le cerveau humain est un repr\u00e9sentant) et les r\u00e9seaux neuronaux artificiels traditionnels apprennent tous deux en modifiant la robustesse des connexions au sein du r\u00e9seau, les m\u00e9canismes et les principes qui sous-tendent ces changements sont fondamentalement diff\u00e9rents, ce qui refl\u00e8te le contraste entre les processus biologiques et les processus algorithmiques.<\/div>\n<div>(\u00e0 suivre&#8230;)<\/div>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-138203\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-An-art-deco-artificial-neural-network.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-An-art-deco-artificial-neural-network.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-An-art-deco-artificial-neural-network-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-An-art-deco-artificial-neural-network-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Stable-Diffusion-An-art-deco-artificial-neural-network-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par Stable Diffusion (+PJ= \u00ab\u00a0An art-deco artificial neural network\u00a0\u00bb)<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-138200\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art.png\" alt=\"\" width=\"1024\" height=\"1024\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art.png 1024w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-300x300.png 300w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-150x150.png 150w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/DALL\u00b7E-2023-12-16-22.35.38-An-artificial-neural-network-3-D-art-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><em>Illustration par DALL\u00b7E (+PJ= \u00ab\u00a0An artificial neural network, 3-D-art\u00a0\u00bb)<\/em><\/p>\n<div><strong>P.J.<\/strong><\/div>\n<div>Au c\u0153ur de la compr\u00e9hension du langage, tant chez l&rsquo;homme que dans les GPT, se trouve un r\u00e9seau, un r\u00e9seau de neurones naturels chez l&rsquo;homme que nous appelons le cerveau, et un r\u00e9seau de neurones artificiels [&hellip;]<\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_crdt_document":"","footnotes":""},"categories":[9204,13],"tags":[6558,2922,9084,9205,9420,1927],"class_list":["post-138193","post","type-post","status-publish","format-standard","hentry","category-grands-modeles-de-langage","category-intelligence-artificielle","tag-apprentissage","tag-cerveau","tag-chatgpt","tag-grands-modeles-de-langage","tag-reseau-neuronal-a-impulsions","tag-reseaux-neuronaux"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138193","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=138193"}],"version-history":[{"count":3,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138193\/revisions"}],"predecessor-version":[{"id":138204,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/138193\/revisions\/138204"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=138193"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=138193"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=138193"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}