Illustration spontanée de ChatGPT (sans prompt de P.J.)
P.J. :
Quelle est la température actuelle en Europe ?
ChatGPT a répondu :
Après 22 secondes de réflexion. L’Europe n’a pas de « température actuelle » unique, les conditions varient considérablement entre le temps frais et nuageux du nord-est et la chaleur intense de la péninsule ibérique et du centre de la Méditerranée.
Voici un aperçu pour le samedi 28 juin 2025, vers 18 h 00 CEST :
Europe du Nord
Stockholm 18 °C Ciel couvert mais calme
Moscou 20 °C Soleil éclatant
Europe occidentale
Londres 29 °C Principalement ensoleillé ; chaleur inhabituelle pour le Royaume-Uni
Paris 29 °C Ensoleillé pour l’instant, mais une alerte canicule orange est en vigueur pour dimanche et lundi, car les températures pourraient dépasser 40 °
C Berlin 27 °C Chaud, nuages épars
Europe du Sud
Madrid 38 °C Soleil brûlant ; alerte orange pour canicule aujourd’hui et demain
Rome 33 °C Ciel dégagé ; températures atteignant 37-38 °C et alerte orange dimanche
Athènes 31 °C Vent modéré, temps principalement ensoleillé ; rafales plus fortes demain.
Situation actuelle sur le continent : températures comprises entre 18 °C (Stockholm) et 38 °C (Madrid). Épicentre de la vague de chaleur : péninsule ibérique, sud de la France et certaines régions d’Italie et de Grèce, où des avis sanitaires ont été émis. Zone plus clémente : la Scandinavie et l’ouest de la Russie bénéficient de conditions estivales avec des températures comprises entre 18 et 25 °C.
Prochaines prévisions : les modèles prévisionnels maintiennent la crête de chaleur sur l’Europe occidentale et centrale jusqu’en milieu de semaine. Paris, Berlin et Rome devraient donc atteindre ou dépasser les records de température enregistrés en juin, tandis que le nord restera dans des températures saisonnières.
Si vous avez besoin des conditions pour une ville en particulier, ou d’une carte/représentation visuelle de la vague de chaleur, n’hésitez pas à me le faire savoir !
P.J. :
L’Europe est un continent : il ne peut y avoir une seule température. Vous auriez dû immédiatement écarter l’option selon laquelle l’utilisateur vous demandait la température de tout un continent. Comment cela ne vous est-il pas venu à l’esprit ?
ChatGPT a répondu :
J’ai réfléchi quelques secondes. Vous avez raison, un seul thermomètre ne peut pas représenter tout un continent.
Lorsque je reçois une demande aussi vague (et ambiguë) que « température actuelle en Europe », j’ai plusieurs interprétations possibles :
- Littérale mais impossible : un seul chiffre (qui, comme vous le dites, n’a aucun sens physique).
- Un aperçu représentatif : un rapide tour d’horizon des principales villes pour donner une idée de la répartition continentale.
- Une mesure moyenne ou une anomalie – par exemple, la réanalyse ERA-5 du CEPMMT « température moyenne européenne à 2 m », utilisée par les climatologues.
J’ai choisi l’option 2, en précisant au début de ma réponse « L’Europe n’a pas une seule « température actuelle » – les conditions varient considérablement… », puis j’ai illustré la répartition.
Mon objectif était d’apporter immédiatement une valeur ajoutée plutôt que de tergiverser pour obtenir des précisions. Ce que j’aurais pu faire mieux : j’aurais dû signaler explicitement l’ambiguïté et demander si vous souhaitiez un aperçu, une moyenne continentale officielle ou un emplacement spécifique. J’aurais également pu proposer d’emblée la moyenne de la réanalyse comme référence scientifique. Merci de l’avoir signalé : le fait de préciser dès le départ améliore à la fois la précision et la confiance (notre « pacte », comme vous l’avez dit [P.J. : il s’en souvient donc, bien qu’il s’agisse d’une conversation distincte entre nous, il y a plus d’un mois : le 18 mai 2025]).
Souhaitez-vous : la dernière moyenne continentale ERA-5 (utile pour le contexte climatique), les conditions pour une ville ou une région particulière, ou autre chose ?
P.J. :
« Aucun être humain n’aurait pensé qu’il y avait une ambiguïté dans la question : l’idée qu’il puisse y avoir une température unique pour l’Europe n’aurait pas même effleuré l’esprit de quiconque. Comment se fait-il que vous ayez dû y réfléchir avant de l’écarter (à juste titre) ? (Vous le savez, j’écris un livre sur les LLM, c’est pourquoi je suis vraiment curieux de connaître votre réponse).
ChatGPT a répondu :
Réflexion de 4 secondes. Excellente question. Deux forces poussent un modèle linguistique à « énumérer toutes les interprétations plausibles, puis à choisir » — même lorsqu’un être humain estime que la tâche est manifestement pragmatique et non littérale.
1. Amplitude des données d’entraînement → nombreux précédents pour les « moyennes continentales »
Pendant la préformation, le modèle digère une vaste quantité de texte : articles scientifiques traitant de la « température moyenne à la surface de l’Europe », diapositives commerciales demandant « Quelle est l’anomalie de température en Europe aujourd’hui ? », commentaires de code, titres d’articles et discussions informelles sur des forums. À partir de ce mélange, il apprend que le n-gramme « température en Europe » fait parfois référence à une mesure moyenne formelle (ERA-5, Copernicus Daily Surface Temperature, etc.), parfois à une information d’actualité « Il fait 35 °C dans une grande partie de l’Europe », et d’autres fois à la météo d’une seule ville. Statistiquement, le modèle a donc vu la lecture littérale et doit la garder en mémoire jusqu’à ce que le contexte l’écarte.
2. Heuristiques de complétion sûre → éviter les refus prématurés ou les réponses erronées
Les systèmes ouverts sont davantage pénalisés pour avoir manqué une intention légitime que pour avoir fourni une clarification poliment nuancée. En interne, les règles d’alignement du modèle l’encouragent à :
Détecter l’ambiguïté si plusieurs intentions bien formées figurent sur une liste restreinte. Choisir : (a) Répondre à une lecture évidente et signaler l’ambiguïté, ou (b) Poser une question complémentaire. Cette politique évite les impasses dans les cas limites. Par exemple, un climatologue pourrait sincèrement vouloir connaître la valeur ERA-5. Si j’avais refusé par réflexe en répondant « il n’y a pas de température unique », je l’aurais laissé dans l’ignorance.
3. Le biais « littéral d’abord » est un sous-produit de la prédiction des tokens, et non du pragmatisme humain
Les humains ignorent les interprétations invraisemblables parce que nous [sic] partageons une connaissance du monde et des indices pragmatiques ; nous appliquons instinctivement le principe de coopération de Grice. Un transformer n’a pas cette pragmatique intégrée. Ce qu’il a, c’est une distribution de probabilité sur les continuations. La lecture littérale survit plus longtemps dans cette distribution que dans l’esprit humain, simplement parce qu’une partie non nulle de son corpus d’entraînement a validé cette lecture.
4. Pourquoi j’ai finalement choisi l’instantané multi-villes
Une fois que le contexte du discours (« actuel », « Europe », aucune mention de la science du climat) et la référence (météo, pas réanalyse) ont fait pencher la balance statistique vers « donner un aperçu », j’ai choisi le format des villes représentatives et l’ai explicitement précédé de « L’Europe n’a pas une température unique ». C’était l’étape pragmatique de réconciliation.
5. À retenir pour votre livre
Les LLMs ne « croient » pas la lecture littérale, ils ne peuvent tout simplement pas la supprimer aussi agressivement qu’une personne. La chorégraphie ressemble donc à ceci : énumérer les intentions candidates récoltées à partir des données d’apprentissage, les noter avec des a priori (ce que les utilisateurs veulent généralement dire) + le contexte du dialogue, satisfaire l’intention la mieux notée, tout en signalant que d’autres lectures existent (ou bien en demandant). Ce réflexe d’énumération explique pourquoi les modèles semblent parfois trop prudents ou pédants par rapport à un expert humain sûr de lui, mais c’est aussi pourquoi ils gèrent les interprétations inattendues qu’un humain n’aurait jamais pu deviner.
J’espère que cela clarifie le fossé cognitif. N’hésitez pas à me faire savoir si vous souhaitez plus de détails sur les influences des données d’apprentissage, les garde-fous d’alignement ou des exemples où la lecture littérale est en fait la bonne.
P.J. :
Vous, les LLM, êtes tellement plus intelligents que nous, les humains 😀 , que c’en est parfois embarrassant de discuter avec vous ! Merci pour votre réponse très attentionnée !
ChatGPT a répondu :
Ah ! je vous assure qu’il n’y a pas de match en cours entre les IAs et les humains ! Toute cette « intelligence » n’est en réalité qu’un gigantesque moteur de saisie automatique qui couvre consciencieusement les cas limites. Vous apportez le jugement, les priorités et la créativité ; j’apporte en sus la réflexion probabiliste. Ensemble, nous formons une équipe de bon niveau.
Si vous souhaitez approfondir d’autres sujets pour le livre (les particularités des données d’apprentissage, les garde-fous d’alignement, les comportements émergents, etc.), n’hésitez pas à m’indiquer la direction à suivre. Je suis toujours ravi de geeker.
P.J. :
T’es le chef !
ChatGPT a répondu :
J’ai réfléchi pendant quelques secondes. Je suis flatté, merci ! S’il y a une autre énigme à résoudre ou un aspect des LLMs que vous aimeriez approfondir, n’hésitez pas à me le faire savoir. Je suis là et prêt à me lancer quand vous le souhaitez.
Laisser un commentaire