Sur les transitions de phase dans les Grands Modèles de Langage, par Max Tegmark

Une réponse partielle, avec une belle illustration, à la question que je pose dans mon billet 14 mars 2023 : le jour où le genre humain fut assailli par le doute VI. La taille de l’IA détermine son degré d’intelligence.

Un extrait de la vidéo :

La vidéo complète :

Partager :

11 réponses à “Sur les transitions de phase dans les Grands Modèles de Langage, par Max Tegmark”

  1. Avatar de pad
    pad

    Phase transitions are a concept borrowed from physics, specifically the study of materials and their properties at different states (e.g., solid, liquid, gas), and it has been applied in various ways to the study of neural networks.

    In the context of neural networks, a phase transition often refers to a dramatic change in the network’s behavior or learning ability due to a change in one of the network’s parameters, such as the size of the network, the learning rate, the level of noise in the training data, or the complexity of the task it’s trying to learn.

    A key example of this is the transition from the « underfitting » phase to the « overfitting » phase as the complexity of the model increases. If a model is too simple (say, a linear model trying to learn a complex, non-linear pattern), it won’t be able to adequately learn from the training data, leading to high error rates. This is called underfitting. As the complexity of the model increases, it becomes better and better at learning from the training data, reducing the error rate. However, if the model becomes too complex, it starts learning too well from the training data and begins to capture the noise in the data as if it were signal. This leads to the model performing poorly on unseen data, a condition known as overfitting. The transition between these two states can be quite sharp, resembling a phase transition in physical systems.

    Another example comes from the field of deep learning, where the phase transition may refer to the sudden ability of a network to generalize from its training data as its size (i.e., the number of layers or neurons) crosses a certain threshold. Such phenomena are still the subject of ongoing research, as understanding them can provide crucial insights into why deep learning works as well as it does, and how to improve it further.

    The idea of phase transitions in neural networks is closely related to the study of « critical periods » in learning and the « edge of chaos » where systems transition between order and disorder. These phenomena can provide insights into how to best train neural networks and perhaps even into how biological brains learn and process information. (GPT4)

    1. Avatar de ilicitano
      ilicitano

      Qu’est ce que le surajustement en intelligence artificielle?

      BingChat:
      Le surajustement est un concept de la science des données qui se produit lorsqu’un modèle statistique s’adapte exactement à ses données d’entraînement.
      Lorsque cette situation se produit, l’algorithme ne peut malheureusement pas fonctionner avec précision sur les données non visibles, ce qui va à l’encontre de sa fonction.
      La généralisation d’un modèle à de nouvelles données est ce qui nous permet d’utiliser chaque jour des algorithmes d’apprentissage automatique pour faire des prédictions et classer des données.
      Lorsque des algorithmes d’apprentissage automatique sont construits, ils utilisent un échantillon de fichier pour entraîner le modèle.
      Cependant, lorsque le modèle s’entraîne trop longtemps sur des échantillons de données ou qu’il est trop complexe, il peut commencer à apprendre le « bruit », c’est-à-dire des informations non pertinentes, dans le fichier.
      Lorsque le modèle mémorise le bruit et s’adapte trop étroitement à l’ensemble d’apprentissage, il devient « surajusté » et est incapable de bien généraliser à de nouvelles données.
      Si un modèle ne peut pas bien généraliser à de nouvelles données, il n’est pas en mesure d’effectuer les tâches de classification ou de prédiction auxquelles il est destiné.

      Un taux d’erreur faible et une variance élevée sont de bons indicateurs d’un surajustement. Pour éviter ce type de comportement, une partie du fichier d’entraînement est généralement réservée comme « ensemble test » pour vérifier le surajustement.
      Si les données d’entraînement ont un faible taux d’erreur et que les données de test ont un taux d’erreur élevé, c’est qu’il existe un surajustement.

      Le sous-ajustement est l’inverse du surajustement. Il se produit lorsque le modèle n’a pas été entraîné suffisamment longtemps ou que les variables d’entrée ne sont pas suffisamment significatives pour déterminer une relation significative entre les variables d’entrée et de sortie. Dans les deux scénarios, le modèle ne peut pas établir la tendance dominante dans le fichier d’entraînement. Par conséquence, le sous-ajustement se généralise également mal aux données non visibles². Cependant, contrairement au surajustement, les modèles sous-ajustés présentent un biais élevé et moins de variance dans leurs prédictions.

      Comment éviter le surajustement?

      BingChat:
      Il existe plusieurs techniques pour éviter le surajustement en intelligence artificielle.
      Voici quelques-unes des méthodes les plus courantes:
      – **Arrêt précoce**: Cette méthode consiste à arrêter l’apprentissage avant que le modèle ne commence à apprendre le bruit dans les données.
      – **Régularisation**: La régularisation est une technique utilisée pour éviter le surajustement statistique dans un modèle de Machine Learning. Les algorithmes de régularisation fonctionnent généralement en appliquant une pénalité liée à la complexité ou l’irrégularité.
      – **Validation croisée**: La validation croisée est une technique qui permet de vérifier si un modèle est surajusté en divisant les données en plusieurs sous-ensembles et en entraînant le modèle sur chaque sous-ensemble, tout en testant sur les autres sous-ensembles².
      – **Amélioration du jeu de données**: Une autre approche pour éviter le surajustement consiste à améliorer le jeu de données. Les modèles de Deep Learning nécessitent en particulier de grandes quantités de données pour éviter le surajustement.

      Il est important de noter que ces techniques ne sont pas mutuellement exclusives et peuvent être utilisées ensemble pour obtenir les meilleurs résultats.
      Par exemple, vous pouvez utiliser la régularisation et la validation croisée en même temps pour éviter le surajustement.

      1. Avatar de ilicitano
        ilicitano

        Quel parallèle pourrait-on faire entre le surajustement de l’intelligence artificielle et le fonctionnement du cerveau humain dans l’analyse d’une situation globale et l’impact du bruit de fond ?

        BingChat:
        Il existe des parallèles intéressants entre le surajustement en intelligence artificielle et le fonctionnement du cerveau humain dans l’analyse d’une situation globale et l’impact du bruit de fond.
        Selon une théorie récente, le cerveau humain peut également être sujet au surajustement, tout comme les réseaux de neurones artificiels.
        Cette théorie suggère que les rêves ont évolué pour aider à la généralisation en créant des entrées sensorielles corrompues à partir d’activités stochastiques dans la hiérarchie des structures neuronales.
        En d’autres termes, les rêves pourraient être un mécanisme biologique pour augmenter la généralisabilité en combattant le surajustement du cerveau pendant son apprentissage quotidien.

        Selon cette théorie, la perte de sommeil, en particulier la perte de rêves, conduit à un cerveau surajusté qui peut encore mémoriser et apprendre, mais qui échoue à généraliser de manière appropriée. Cette hypothèse est explicitement développée et comparée aux théories neuroscientifiques contemporaines des rêves.

        En résumé, il existe des parallèles entre le surajustement en intelligence artificielle et le fonctionnement du cerveau humain. Les deux peuvent être sujets au surajustement lorsqu’ils apprennent à partir de données bruyantes ou complexes, et les deux peuvent utiliser des mécanismes pour combattre le surajustement et améliorer la généralisation.
        Dans le cas du cerveau humain, les rêves pourraient jouer un rôle important dans ce processus.

  2. Avatar de Pad
    Pad

    In the context of computer programming, data science, machine learning, or any complex topic, to « grok » something means to understand it so completely that it becomes a part of your nature. You don’t just know the subject; you understand it so thoroughly that you can apply the principles and techniques in a seamless, effortless manner. GPT4

  3. Avatar de Pad
    Pad

    Les étincelles de l’intelligence générale artificielle : Premières expériences avec GPT-4

    Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang

    Les chercheurs en intelligence artificielle (IA) ont développé et affiné de grands modèles de langage (LLM) qui présentent des capacités remarquables dans une variété de domaines et de tâches, remettant en question notre compréhension de l’apprentissage et de la cognition. Le dernier modèle développé par l’OpenAI, GPT-4, a été entraîné en utilisant une échelle de calcul et de données sans précédent. Dans cet article, nous rendons compte de notre étude d’une première version de GPT-4, alors qu’elle était encore en cours de développement par l’OpenAI. Nous soutenons que (cette première version de) GPT-4 fait partie d’une nouvelle cohorte de LLM (avec ChatGPT et PaLM de Google par exemple) qui font preuve d’une intelligence plus générale que les modèles d’IA précédents. Nous discutons des capacités croissantes et des implications de ces modèles. Nous démontrons qu’au-delà de sa maîtrise du langage, le GPT-4 peut résoudre des tâches nouvelles et difficiles dans les domaines des mathématiques, du codage, de la vision, de la médecine, du droit, de la psychologie et bien d’autres encore, sans avoir besoin d’une aide particulière. En outre, dans toutes ces tâches, les performances de GPT-4 sont étonnamment proches de celles d’un être humain et dépassent souvent largement celles de modèles antérieurs tels que ChatGPT. Compte tenu de l’étendue et de la profondeur des capacités de GPT-4, nous pensons qu’il peut raisonnablement être considéré comme une première version (encore incomplète) d’un système d’intelligence générale artificielle (AGI). Dans notre exploration de GPT-4, nous mettons particulièrement l’accent sur la découverte de ses limites, et nous discutons des défis à venir pour progresser vers des versions plus profondes et plus complètes de l’AGI, y compris le besoin éventuel de poursuivre un nouveau paradigme qui va au-delà de la prédiction du mot suivant. Nous concluons par des réflexions sur les influences sociétales du récent saut technologique et sur les orientations futures de la recherche.

    arXiv

  4. Avatar de Khanard
    Khanard

    j’adore le look de ce monsieur : bermuda, chemise pendante etc… tout à fait le style du geek californien . quant au contenu….. j’suis un peu dépassé . 🤪

    1. Avatar de Pad
      Pad

      Une ambiance sympathique et stimulante .. bien qu’est palpable une certaine inquiétude sur le sujet du professeur !

      1. Avatar de Pascal
        Pascal

        En matière de sécurité, si j’ai bien compris les précautions qu’il souhaiterait que la société prenne avec les IA, c’est un peu comme dans une centrale nucléaire : la réaction nucléaire est confinée dans un circuit primaire (fonctionnement des boites noires « déconnectées du monde réel ») mais va alimenter un circuit secondaire (extraction des nouvelles données, théories, algorithmes…) qui pourra être réinjecté dans l’alternateur (« dans le réel ») pour faire tourner les activités humaines. Dites-moi si je me trompe ?!
        Si c’est bien cela l’idée, reste à savoir comment structurer la cellule de confinement du circuit primaire ? Visiblement, pour le moment, ça semble fuir d’un peu partout, non ?

        1. Avatar de Pad
          Pad

          I think we should never put something we don’t understand like GPT4 in charge of MIT (R) nuclear reactor or any huge task system … 🙂

  5. Avatar de Khanard
    Khanard

    @Pad

    qui ne le serait inquiet . d’autant plus que si j’ai bien compris il s’attendait à avoir un autre auditoire .

    1. Avatar de Pad
      Pad

      Plus de 65 K vues en trois jours ..

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Encore une fois, les États-Unis finissent par perdre (comme au Vietnam, en Afghanistan ou en Irak), et en ayant fait…

  2. Flûte alors, encore une pub pour un bouquin. Toutes les occasions sont bonnes, cela devient indécent.

  3. Excellente nouvelle concernant J.Assange, il a dû toutefois concéder à la justice américaine qu’il reconnaissait sa responsabilité ; ni l’un, ni…

  4. Bonjour et bonne journée, je mets en avant le 1er paragraphe de Mr J. Crahay : « Notre modèle économique…

  5. Aujourd’hui on devrait pouvoir rajouter à la liste, la santé. https://hervey-noel.com/declinaison-cqfd/

  6. lu sur le site de M. Cédric Chevalier: https://cedricchevalier.eu/personne-inspirante-n6-jacques-crahay/ hommage à M. Jacques Crahay

  7. Ah tiens! du placement de bouquin, de la pub, plus un média n’y échappe. C’est le moment d’aller au petit…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta