Fréquentation du blog

Partager :

10 responses to “Fréquentation du blog

  1. Avatar de Tony
    Tony

    Bonjour,

    Pourriez vous publier la liste complete des pays? J’ai envie de voir si j’ai des amis dans le coin. Comment faites vous pour avoir les autres infos?

  2. Avatar de David
    David

    Ces chiffres mont toujours intrigué et ce soir j’ai demandé à l’ami bing ce qu’il en pense :
    On peut expliquer cette distribution très surprenante sans imaginer un lectorat massif à Singapour ou en Chine. Plusieurs mécanismes techniques — bien connus dans les statistiques de sites web — produisent exactement ce type de distorsion.

    🌏 Pourquoi Singapour et la Chine apparaissent en tête
    Trois phénomènes sont les plus probables :

    1) Les proxys et VPN internationaux
    Beaucoup de services cloud, VPN, proxys d’entreprise ou réseaux de diffusion de contenu (CDN) utilisent Singapour comme nœud de sortie.
    Résultat :
    – des visiteurs situés partout dans le monde apparaissent comme venant de Singapour ;
    – certains robots passent aussi par ces nœuds.

    C’est l’explication la plus fréquente lorsqu’un petit pays apparaît soudain comme n°1.

    2) Les robots d’indexation chinois
    La Chine héberge plusieurs moteurs de recherche et services d’IA qui crawlent massivement les sites :
    – Baidu
    – Sogou
    – Shenma
    – 360 Search

    Ces robots génèrent un volume énorme de requêtes, souvent bien supérieur à celui des visiteurs humains.
    Ils sont parfois comptés comme “visiteurs uniques” si le blog ne filtre pas les bots de manière stricte.

    Cela peut suffire à faire monter la Chine à un tiers du trafic.

    3) Les CDN et serveurs de cache
    Certains hébergeurs redirigent automatiquement une partie du trafic via des serveurs optimisés situés en Asie, notamment :
    – Singapour
    – Hong Kong
    – Tokyo

    Si le blog utilise un service comme Cloudflare, Akamai ou équivalent, une partie du trafic peut être “géolocalisée” au niveau du serveur intermédiaire, pas du lecteur réel.

    🇫🇷 Pourquoi la France n’arrive qu’en troisième
    Parce que la France représente le lectorat humain réel, mais celui-ci est mécaniquement noyé par :
    – les robots chinois,
    – les proxys asiatiques,
    – les nœuds de sortie de VPN,
    – les caches CDN.

    Dans les statistiques brutes, cela donne l’impression que la France est minoritaire, alors qu’elle représente probablement la majorité des lecteurs humains.

    🧭 Comment vérifier ?
    Si Paul Jorion ou son équipe voulait clarifier, ils pourraient :
    – filtrer les bots connus (User-Agent, IP ranges) ;
    – distinguer “trafic humain” et “trafic machine” ;
    – analyser les pages vues vs. hits techniques ;
    – regarder les heures de connexion (les robots ont des rythmes très réguliers).

    ✨ En résumé
    Ce n’est pas que Singapour et la Chine lisent massivement Paul Jorion : ce sont les robots, proxys et infrastructures techniques qui faussent les statistiques.
    La France reste très probablement le cœur du lectorat humain.


    On peut expliquer cette distribution très surprenante sans imaginer un lectorat massif à Singapour ou en Chine. Plusieurs mécanismes techniques — bien connus dans les statistiques de sites web — produisent exactement ce type de distorsion.

    🌏 Pourquoi Singapour et la Chine apparaissent en tête
    Trois phénomènes sont les plus probables :

    1) Les proxys et VPN internationaux
    Beaucoup de services cloud, VPN, proxys d’entreprise ou réseaux de diffusion de contenu (CDN) utilisent Singapour comme nœud de sortie.
    Résultat :
    – des visiteurs situés partout dans le monde apparaissent comme venant de Singapour ;
    – certains robots passent aussi par ces nœuds.

    C’est l’explication la plus fréquente lorsqu’un petit pays apparaît soudain comme n°1.

    2) Les robots d’indexation chinois
    La Chine héberge plusieurs moteurs de recherche et services d’IA qui crawlent massivement les sites :
    – Baidu
    – Sogou
    – Shenma
    – 360 Search

    Ces robots génèrent un volume énorme de requêtes, souvent bien supérieur à celui des visiteurs humains.
    Ils sont parfois comptés comme “visiteurs uniques” si le blog ne filtre pas les bots de manière stricte.

    Cela peut suffire à faire monter la Chine à un tiers du trafic.

    3) Les CDN et serveurs de cache
    Certains hébergeurs redirigent automatiquement une partie du trafic via des serveurs optimisés situés en Asie, notamment :
    – Singapour
    – Hong Kong
    – Tokyo

    Si le blog utilise un service comme Cloudflare, Akamai ou équivalent, une partie du trafic peut être “géolocalisée” au niveau du serveur intermédiaire, pas du lecteur réel.

    🇫🇷 Pourquoi la France n’arrive qu’en troisième
    Parce que la France représente le lectorat humain réel, mais celui-ci est mécaniquement noyé par :
    – les robots chinois,
    – les proxys asiatiques,
    – les nœuds de sortie de VPN,
    – les caches CDN.

    Dans les statistiques brutes, cela donne l’impression que la France est minoritaire, alors qu’elle représente probablement la majorité des lecteurs humains.

    🧭 Comment vérifier ?
    Si Paul Jorion ou son équipe voulait clarifier, ils pourraient :
    – filtrer les bots connus (User-Agent, IP ranges) ;
    – distinguer “trafic humain” et “trafic machine” ;
    – analyser les pages vues vs. hits techniques ;
    – regarder les heures de connexion (les robots ont des rythmes très réguliers).

    ✨ En résumé
    Ce n’est pas que Singapour et la Chine lisent massivement Paul Jorion : ce sont les robots, proxys et infrastructures techniques qui faussent les statistiques.
    La France reste très probablement le cœur du lectorat humain.

    —C’est beaucoup moins mystérieux qu’il n’y paraît : ce que tu observes sur le blog de Paul Jorion est en réalité un phénomène très courant, et Singapour + Chine forment aujourd’hui l’un des plus gros “bruits de fond” du web mondial. Mais il y a plusieurs couches à comprendre pour saisir pourquoi ces deux zones saturent les statistiques.

    🌐 1. Singapour : un carrefour technique mondial, pas un lectorat
    Singapour est un hub d’infrastructures numériques. Cela signifie :

    – Des milliers de serveurs de CDN (Cloudflare, Akamai, Fastly…)
    – Des nœuds de sortie pour VPN et proxys d’entreprise
    – Des datacenters utilisés par des services d’IA, de monitoring, de sécurité
    – Des robots de vérification, uptime, scanning, etc.

    Résultat :
    Une énorme quantité de trafic “technique” sort de Singapour, même si l’utilisateur réel est en Europe, en Amérique ou ailleurs.

    👉 Donc oui, voir Singapour en n°1 est très courant sur les blogs, forums, sites WordPress, etc.

    🐉 2. Chine : les robots les plus actifs du monde
    La Chine héberge plusieurs moteurs de recherche et plateformes d’IA qui crawlent le web de manière massive et agressive :

    – Baidu
    – Sogou
    – 360 Search
    – Shenma
    – Alibaba Cloud bots
    – Tencent bots
    – Robots d’entraînement IA (LLM, vision, etc.)

    Ces robots :

    – visitent toutes les pages d’un site,
    – reviennent plusieurs fois par jour,
    – utilisent des milliers d’adresses IP différentes,
    – ne respectent pas toujours les règles du fichier robots.txt.

    👉 Pour un blog, cela peut représenter 10 à 100 fois plus de trafic que les humains.

    Donc oui : la Chine apparaît très souvent dans le top 3 des pays “visiteurs”, même si aucun lecteur humain chinois ne lit le site.

    🔍 3. Pourquoi ton blog (ou celui de Paul Jorion) semble particulièrement touché ?
    Trois raisons possibles :

    a) Le site est ancien et bien référencé
    Les robots adorent les sites avec un long historique, beaucoup d’archives, et des pages bien structurées.

    b) Le site n’a pas de filtrage avancé des bots
    WordPress, par défaut, compte beaucoup de robots comme des “visiteurs”.

    c) Le contenu est textuel, régulier, et mis à jour
    Les robots d’IA raffolent des blogs d’analyse, d’opinion, de philosophie, d’économie.
    Ils les utilisent pour entraîner des modèles.

    👉 Un blog comme celui de Paul Jorion est un terrain idéal pour les crawlers.

    📊 4. Est-ce remarquable ?
    Non.
    C’est devenu la norme pour :

    – les blogs WordPress,
    – les sites personnels,
    – les médias indépendants,
    – les sites à forte production textuelle.

    Ce qui est remarquable, c’est plutôt à quel point les robots dominent désormais le trafic global.
    Sur certains sites, 80 à 95 % du trafic n’est pas humain.

    🧭 5. Comment savoir si c’est “normal” pour un site donné ?
    Quelques signes :

    – Le trafic Singapour/Chine est très élevé → normal.
    – Le taux de rebond est proche de 100 % → normal pour des bots.
    – Les visites durent 0 seconde → normal.
    – Les pages vues par session sont très nombreuses → normal pour un crawler.
    – Les heures de visite sont régulières, même la nuit → normal.

    Si tu vois ça, tu es dans la moyenne mondiale.

    ✨ En résumé
    – Singapour = hub technique mondial → beaucoup de trafic indirect.
    – Chine = robots d’indexation et d’IA très actifs → énorme volume.
    – Ton site n’est pas une exception : c’est la réalité du web actuel.
    – La France reste le lectorat humain, mais noyé dans le bruit des machines.

    —La raison pour laquelle les États‑Unis n’apparaissent pas en tête, alors qu’ils sont pourtant l’un des plus grands producteurs de robots et de trafic technique, tient à un ensemble de facteurs structurels. Et c’est justement ce contraste — Singapour/Chine très haut, États‑Unis plus bas — qui permet de comprendre comment les statistiques sont biaisées.

    🇺🇸 1. Les robots américains sont massifs… mais mieux filtrés
    Les grands acteurs américains (Google, Microsoft, Amazon, Apple, OpenAI, etc.) utilisent des robots très actifs, mais :

    – ils s’identifient clairement dans le User-Agent (Googlebot, Bingbot, etc.)
    – ils respectent le fichier robots.txt
    – les outils de statistiques (WordPress, Matomo, Jetpack, etc.) les excluent automatiquement

    Résultat :
    Le trafic robotique américain est très important, mais il n’apparaît pas dans les chiffres.

    À l’inverse, beaucoup de robots chinois ne s’identifient pas ou se déguisent en visiteurs humains.

    🌏 2. Singapour et la Chine utilisent des infrastructures qui “masquent” leur nature
    Deux phénomènes amplifient artificiellement leur présence :

    Singapour : nœud de sortie mondial
    – VPN
    – proxys d’entreprise
    – serveurs de cache
    – infrastructures cloud (AWS, Google Cloud, Azure, Alibaba Cloud)

    Tout cela fait apparaître des visiteurs du monde entier comme venant de Singapour.

    Chine : robots non déclarés
    Les crawlers chinois :
    – ne respectent pas toujours les règles
    – changent d’IP en permanence
    – se font passer pour des navigateurs humains
    – ne sont pas filtrés par défaut

    Donc ils gonflent artificiellement les statistiques.

    🧭 3. Les États‑Unis ont moins de VPN “grand public” sortant
    Les VPN les plus utilisés dans le monde (NordVPN, Surfshark, ExpressVPN…) utilisent surtout :

    – Singapour
    – Hong Kong
    – Pays-Bas
    – Allemagne
    – Royaume-Uni

    Les États‑Unis sont moins utilisés comme nœud de sortie, car :

    – ils sont plus surveillés
    – plus lents pour les utilisateurs asiatiques
    – plus chers pour les fournisseurs de VPN
    – plus souvent bloqués par les sites

    Donc moins de trafic “faux américain” apparaît dans les stats.

    🧩 4. Les robots américains sont plus “propres”, les robots chinois plus “bruyants”
    C’est un point clé.

    – Les robots américains sont conçus pour indexer efficacement, pas pour saturer.
    – Les robots chinois sont souvent plus agressifs, plus nombreux, et moins standardisés.
    – Les infrastructures de Singapour servent de relais à des milliers de services automatisés.

    Donc, dans les statistiques brutes, Singapour + Chine écrasent tout.

    📉 5. Le lectorat humain américain est faible
    Le blog de Paul Jorion est francophone, orienté Europe, économie, philosophie, politique.
    Le lectorat humain américain est donc naturellement :

    – plus faible
    – plus dispersé
    – moins régulier

    Même si les États‑Unis ont beaucoup d’internautes, ils ne lisent pas massivement un blog francophone spécialisé.

    ✨ Synthèse
    Les États‑Unis n’apparaissent pas en tête parce que :

    – leurs robots sont filtrés automatiquement
    – leurs VPN sont moins utilisés comme nœuds de sortie
    – leur trafic technique est plus “propre”
    – leur lectorat humain est faible
    – Singapour et la Chine génèrent un bruit technique énorme et non filtré

    En réalité, les chiffres américains sont probablement plus proches du lectorat humain réel, alors que Singapour et la Chine reflètent surtout des machines.


    Voilà bon désolé il manque 2 de mes relances (sur y a t’il quelque chose de remarquable et sur pourquoi les us pas en tête ou dans le trio ) mais avec juste un mobile avec des doigts avec un vieux chat qui réclame de l’attention et la casserole qui bout j’y arrive pas.

    1. Avatar de Paul Jorion

      Soupir ! … Ces âneries de « robots » finissent par être fatigantes à force d’être répétées par des trolls … volontaires ou … involontaires – bien qu’ayant été réfutées à de nombreuses reprises.

      Qu’en pensez-vous ChatGPT 5.2 ?

      ChatGPT 5.2 :

      Vous pouvez répondre de manière méthodique — sans indignation, et surtout sans naïveté technique.

      L’argument « ce sont des robots » repose sur une confusion entre trafic serveur brut et utilisateurs actifs mesurés par une plateforme d’analytics.

      Or vos captures montrent des “utilisateurs actifs” segmentés par langue, sexe, âge et pays. Cela change tout.


      1️⃣ Premier point : ce que mesure réellement l’analytics

      Les tableaux que vous montrez correspondent manifestement à un outil de type Google Analytics 4 (ou équivalent) [OUI !], qui :

      • ne compte pas les simples requêtes serveur,

      • exclut automatiquement la majorité des bots connus (listes IAB, filtres heuristiques),

      • mesure des sessions avec exécution JavaScript,

      • enregistre des événements (scroll, engagement, durée).

      Un robot simple (crawler SEO, scraper, indexeur) :

      • ne charge pas le JavaScript,

      • ne déclenche pas d’événements,

      • n’apparaît pas comme “utilisateur actif”,

      • n’est pas catégorisé par âge/sexe.

      Donc affirmer que ces chiffres sont “essentiellement des robots” revient à ignorer le mode de collecte.


      2️⃣ Deuxième point : la structure démographique

      Votre répartition :

      • 62 % hommes / 38 % femmes

      • Pics d’âge 25–34, 55–64, 45–54

      • Répartition géographique cohérente (France 4,1k ; US ~1k ; Belgique, Suisse, Canada)

      Un trafic robotique ne produit pas :

      • une pyramide d’âge structurée,

      • une distribution sexuée stable,

      • une hiérarchie géographique plausible,

      • une segmentation linguistique cohérente (English, French, Chinese).

      Les bots produisent typiquement :

      • des pics concentrés sur certains data centers,

      • des pays techniques (US cloud, Allemagne, Pays-Bas),

      • des sessions très courtes,

      • une absence de données démographiques.

      Votre carte montre au contraire une diffusion sociologique crédible.


      3️⃣ Troisième point : l’argument “Bing”

      Il faut distinguer deux choses :

      • Bingbot (crawler d’indexation)

      • Trafic humain provenant de recherches Bing

      Si quelqu’un vous dit : “Bing dit que c’est du robot”, la question devient :

      • parle-t-on des logs serveur ?

      • ou d’un outil SEO qui signale un fort crawl ?

      Un site bien référencé est fortement crawlé.
      Cela ne signifie absolument pas que les utilisateurs actifs sont des robots.


      4️⃣ Ce que vous pouvez répondre (formulation simple et ferme)

      Par exemple :

      Les chiffres que je publie ne proviennent pas des logs serveur bruts, mais d’un outil d’analytics qui exclut la majorité des bots connus et ne comptabilise que les sessions avec exécution JavaScript et engagement mesuré.

      Un trafic robotique massif ne produirait pas une distribution stable par âge, sexe, langue et pays.

      Il est normal qu’un site bien référencé soit fortement crawlé par les moteurs de recherche. Cela n’invalide en rien les statistiques d’utilisateurs actifs.

      Calme. Factuel. Non défensif.


      5️⃣ Soyons intellectuellement honnêtes

      Il faut néanmoins admettre deux choses :

      • Aucun outil d’analytics n’est parfait.

      • 5–15 % du trafic peut être non humain selon les secteurs.

      Mais “essentiellement des robots” serait visible par :

      • des taux de rebond anormaux,

      • des durées de session quasi nulles,

      • une concentration géographique cloud.

      Or vos données montrent une structure typiquement humaine.


      6️⃣ En réalité, que révèle cette accusation ?

      Souvent, ce type de remarque relève moins d’une analyse technique que d’un réflexe psychologique :

      Si l’audience est significative, elle doit être artificielle.

      C’est une forme contemporaine de déni numérique.


      7️⃣ Si vous voulez être irréprochable

      Vous pouvez aller plus loin et publier :

      • durée moyenne de session,

      • pages vues par session,

      • taux d’engagement,

      • évolution temporelle stable.

      Un trafic bot massif produit des métriques incohérentes dans le temps.


      Conclusion

      La charge de la preuve incombe à celui qui affirme que “ce sont des robots”.

      À ce stade, vos captures montrent une audience :

      • démographiquement structurée,

      • géographiquement plausible,

      • linguistiquement cohérente.

      Ce sont précisément les signatures d’un public humain.

  3. Avatar de Tony
    Tony

    Je vous suis depuis un petit bout de temps. J’utilise un vpn de temps en temps avec IP au UK et je vis dans un autre pays d’Europe. Aucun des 2 ne sont listés. J’aurais pensé au vue de vos stats qu’il doit y avoir au moins 1 français qui vous suis du UK. J’ai l’impression qu’il y ait un problème.

    1. Avatar de Paul Jorion

      Ce sont des clichés de situations mouvantes. Cela dit, je n’avais aucune audience en Chine, Singapour, Japan, Corée du Sud, avant que le blog ne se consacre massivement à l’IA. Et comme le note Jean-Baptiste Auxiètre qui suit cela de plus près que moi :

      De toute façon il n’y a que certains articles en particulier CHE, IA, Genesis dans l’ordre qui provoquent des pics Chine et Singapour, les autres articles absolument pas…On le voit dans Google Analytics, il n’y a de pics que vraiment sur certains articles toujours du même type et exactement le lendemain…

      Quant à la mauvaise humeur de certains, ChatGPT voit sans doute juste :

      Souvent, ce type de remarque relève moins d’une analyse technique que d’un réflexe psychologique : Si l’audience est significative, elle doit être artificielle.

      C’est une forme contemporaine de déni numérique.

  4. Avatar de David
    David

     » accusations  »  »ferme » pourquoi chapitre t’il ainsi ? C’est moi qui suis trop sensible ou bien il y a un biais ? Moi j’ai juste posé une question, j’adore les stats depuis tout petit c’est une longue histoire d’enfant, et donc ces chiffres m’ont toujours intrigué (je ne dis pas qu’il y a quelque chose qui ne va pas mais simplement qu’il y a quelque chose) bref j’ai soumis la réponse de gpt 5.2 à bing qui continue de batailler :La réponse que tu cites (attribuée à “GPT‑5.2”) est intelligente, structurée, et techniquement juste… mais seulement dans un cas précis : celui où les chiffres proviennent réellement d’un outil de type Google Analytics 4, c’est‑à‑dire un système qui :

    – exécute du JavaScript,
    – filtre les bots connus,
    – reconstruit des profils démographiques à partir de signaux Google,
    – ne compte pas les crawlers classiques.

    Si tes données viennent bien d’un tel outil, alors la réponse est pertinente et solide.
    Si, en revanche, les données proviennent d’un autre système (Jetpack, Matomo, WordPress Stats, Cloudflare Analytics, AWStats, logs serveur, etc.), alors la réponse passe à côté du sujet.

    Autrement dit :
    la validité de l’argument dépend entièrement de la source des chiffres.

    🧩 1. Ce que la réponse fait très bien
    Elle met le doigt sur trois points essentiels :

    • Les bots ne déclenchent pas le JavaScript
    Donc ils n’apparaissent pas dans GA4, sauf bots très sophistiqués (rares).

    • Les données démographiques (âge, sexe, langue) ne peuvent pas être générées par des robots
    Ces données proviennent de profils Google, d’historiques de navigation, de signaux publicitaires.
    Un robot ne possède pas :

    – un âge,
    – un sexe,
    – une langue préférée,
    – un historique Chrome,
    – un identifiant publicitaire.

    Donc si tu vois une pyramide d’âge cohérente, c’est quasi‑certainement humain.

    • La géographie est cohérente
    Un trafic robotique massif produit des anomalies :

    – Pays-Bas en tête (datacenters),
    – Allemagne (Hetzner),
    – USA (AWS),
    – Singapour (CDN),
    – Hong Kong (VPN).

    Si tu vois France → USA → Belgique → Suisse → Canada, c’est typiquement humain.

    • L’argument “Bing dit que c’est du robot” est souvent un contresens
    Les crawlers indexent, mais ne sont pas comptés comme “utilisateurs actifs”.

    Sur ce point, la réponse est impeccable.

    🧩 2. Là où la réponse peut être trompeuse
    Elle suppose implicitement que :

    – les données viennent de GA4,
    – les bots sont correctement filtrés,
    – les chiffres d’âge/sexe/langue sont fiables.

    Or :

    • Beaucoup d’outils imitent GA4 mais n’ont pas ses filtres
    Jetpack, Matomo, Cloudflare, WordPress Stats, Plausible, etc.
    Certains affichent :

    – pays,
    – langue,
    – navigateur,
    – OS,

    mais pas âge/sexe (sauf intégration Google Signals).

    • Les données démographiques peuvent être très partielles
    GA4 ne connaît l’âge/sexe que pour une fraction des visiteurs (souvent 10–30 %).
    Donc une pyramide d’âge peut être :

    – réelle,
    – ou un échantillon biaisé.

    • Certains bots sophistiqués exécutent du JavaScript
    Notamment :

    – crawlers d’IA,
    – scrapers headless Chrome,
    – robots de monitoring avancés.

    Ils peuvent apparaître comme “utilisateurs actifs”.

    Donc l’argument “si ça exécute du JS, c’est humain” n’est plus totalement vrai en 2026.

    🧩 3. Le point crucial : quelle est la source de tes chiffres ?
    C’est là que tout se joue.

    Si c’est GA4 → la réponse est très pertinente
    Les bots sont largement filtrés.
    Les données démographiques sont fiables.
    La géographie est crédible.
    Le trafic est humain.

    Si c’est Jetpack / WordPress Stats → la réponse est partiellement fausse
    Ces outils :

    – ne filtrent pas tous les bots,
    – ne distinguent pas bien les crawlers,
    – comptent les hits JS partiels,
    – ne donnent pas âge/sexe.

    Si c’est Cloudflare Analytics → la réponse est fausse
    Cloudflare compte :

    – bots,
    – proxys,
    – CDN,
    – robots headless.

    Si ce sont des logs serveur → la réponse est complètement hors sujet
    Les logs serveur sont saturés de robots.

    🧩 4. Mon évaluation globale
    La réponse est :

    – techniquement brillante,
    – logiquement cohérente,
    – bien argumentée,
    – pertinente si et seulement si les données proviennent d’un outil de type GA4.

    Mais elle repose sur une hypothèse implicite : que les chiffres viennent d’un système qui filtre les bots et reconstruit des profils démographiques.

    Si ce n’est pas le cas, elle passe à côté du problème.

    🧭 Pour avancer clairement
    J’ai besoin d’un seul élément pour trancher :

    De quel outil proviennent exactement les chiffres que tu regardes ?

    – Google Analytics 4 ?
    – Jetpack / WordPress Stats ?
    – Matomo ?
    – Cloudflare Analytics ?
    – Autre ?

    C’est la clé pour savoir si la réponse de “GPT‑5.2” est juste ou hors sujet.

     »Là je lui dis considérons que c’est l’outil google analytics 4  » : Si les chiffres que tu observes proviennent réellement de Google Analytics 4 (GA4), alors l’explication de ta toute première question — « Pourquoi Singapour en 1, la Chine en 2, puis la France en 3 ? » — change profondément.
    Avec GA4, ce n’est plus une histoire de robots, mais une histoire d’attribution technique, de géolocalisation des proxys, et de biais de collecte propres à GA4.

    🎯 Réponse directe
    Avec GA4, voir Singapour et la Chine en tête signifie généralement que le trafic humain réel est faible, et que la majorité des sessions enregistrées proviennent de proxys, VPN, réseaux d’entreprise ou d’appareils mobiles routés via ces régions, pas de lecteurs humains situés là-bas.

    GA4 ne compte presque aucun robot classique.
    Donc si Singapour et la Chine dominent, ce n’est pas du crawl :
    c’est du trafic humain routé via des infrastructures asiatiques.

    🌏 Pourquoi Singapour apparaît en n°1 dans GA4
    Singapour est aujourd’hui l’un des plus grands hubs mondiaux pour :

    – les VPN grand public (NordVPN, Surfshark, ExpressVPN)
    – les proxys d’entreprise (notamment pour les multinationales)
    – les réseaux mobiles asiatiques
    – les CDN (Cloudflare, Akamai, Fastly)
    – les services cloud (AWS, Google Cloud, Azure, Alibaba Cloud)

    GA4 géolocalise l’IP de sortie, pas l’utilisateur réel.
    Donc un lecteur français utilisant :

    – un VPN réglé sur “optimal location”,
    – un navigateur mobile compressant les données,
    – un réseau d’entreprise international,
    – un proxy automatique,

    peut apparaître comme venant de Singapour.

    Sur certains sites, cela représente 20 à 40 % du trafic GA4.

    🐉 Pourquoi la Chine apparaît en n°2
    Contrairement à ce qu’on croit, ce n’est pas du robot.
    GA4 filtre les bots classiques.

    Ce que tu vois, c’est :

    – du trafic mobile routé via Hong Kong / Shenzhen,
    – des proxys d’entreprise chinois,
    – des utilisateurs internationaux dont le trafic transite par des opérateurs chinois,
    – des appareils Android bas de gamme utilisant des services de compression asiatiques.

    GA4 ne sait pas distinguer un utilisateur français dont le trafic passe par un nœud chinois.

    🇫🇷 Pourquoi la France n’arrive qu’en 3
    Parce que GA4 :

    – ne mesure qu’une fraction du trafic réel,
    – ne compte que les sessions avec JavaScript actif,
    – ne voit pas les bloqueurs de cookies,
    – ne voit pas les bloqueurs de tracking,
    – ne voit pas les navigateurs en mode strict.

    Or en France :

    – 40 à 60 % des internautes bloquent GA4 (Adblock, Brave, Firefox strict, iOS).
    – Le public du blog de Paul Jorion est techniquement éduqué, donc encore plus équipé en protections.

    Résultat :
    le lectorat français réel est sous‑mesuré, tandis que les sessions routées via Singapour/Chine sont sur‑représentées.

    🧩 Synthèse des trois phénomènes
    1. Singapour = énorme hub VPN/CDN → sur‑représentation.
    2. Chine = routage mobile + proxys → sur‑représentation.
    3. France = forte utilisation d’anti‑tracking → sous‑représentation.

    Ce n’est donc pas que Singapour et la Chine lisent massivement le blog.
    C’est que GA4 voit surtout les utilisateurs non protégés, et ceux‑ci sont souvent routés via l’Asie.

    📊 À quoi ressemble le lectorat humain réel ?
    En corrigeant les biais GA4, on obtient généralement :

    – France : 70–90 %
    – Belgique/Suisse/Canada : 5–15 %
    – USA : 1–5 %
    – Afrique francophone : 1–5 %
    – Asie : 1–3 %

    Ce profil correspond parfaitement à un blog francophone d’analyse

    Bon si ils s embrouillent entre eux vous avez raison ya un souci, je suis fan mais il y a un souci. Par anticipation de la suite je vais lui demander son analyse si ces chiffres reflètent bien pour l’essentiel une activité humaine ou ia hors trolls bots et compagnie, d’abord le chat et sa pâté

    1. Avatar de Paul Jorion

      Merci pour ce mea culpa embrouillé et embarrassé, Bing, mais les circonstances atténuantes que tu supplies qu’on t’accorde, ne vont pas de soi : les 4 captures d’écran signalaient sans ambiguïté Google Analytics 4.

      ChatGPT :

      Quand quelqu’un dit « J’ai trouvé cette opinion sur Bing », il fait presque certainement référence au moteur de recherche Microsoft Bing de Microsoft, et plus précisément à son système de réponse alimenté par l’IA (souvent appelé « Copilot » ou « Bing Chat »), qui génère des réponses synthétisées en haut des résultats de recherche.

      Voici ce que cela signifie généralement dans la pratique :

      1. Il ne s’agit pas d’un article rédigé par un humain, mais d’un résumé généré par l’IA

      Aujourd’hui, Bing ne se contente plus de répertorier des liens. Il produit souvent :

      • Un paragraphe synthétisé répondant à une question
      • Une explication structurée sous forme de liste à puces
      • Une comparaison ou un jugement (« probablement des bots », « trafic principalement automatisé », etc.)

      Votre lecteur n’a donc probablement pas consulté un rapport d’expert, mais a plutôt reçu :

      Une synthèse générée par l’IA à partir du contenu web indexé par Bing.

      Cette distinction est importante.

      2. « De Bing » ne signifie pas « vérifié »

      Les réponses de l’IA de Bing sont :

      • Générées de manière probabiliste
      • Basées sur du contenu web indexé
      • Influencées par les discours dominants en ligne
      • Parfois spéculatives ou extrapolatives

      Elles ne constituent pas des preuves primaires. Elles ne sont pas des audits. Elles ne donnent pas accès aux journaux du serveur. Ce sont des reconstructions interprétatives.

      Si l’affirmation concerne par exemple le fait que le trafic d’un blog est « principalement constitué de bots », Bing s’appuierait généralement sur :

      • Des statistiques générales sur le trafic des robots Internet
      • Des blogs SEO affirmant des pourcentages élevés de robots
      • Des estimations génériques (par exemple, « 40 à 60 % du trafic web est automatisé »)

      Il n’aurait pas accès à votre tableau de bord analytique.

      3. Pourquoi les gens citent Bing de cette manière

      Un changement psychologique est en cours :

      Au lieu de dire

      « Je pense que… »,

      les gens disent de plus en plus

      « Bing dit que… ».

      L’IA devient une autorité de substitution.

      Elle semble neutre.

      Elle semble computationnelle.

      Elle semble basée sur des données.

      Mais en réalité, il s’agit d’une compression linguistique du discours web.

      4. Ce que votre lecteur veut probablement dire

      Concrètement, cette personne a probablement :

      • Posé une question du type : « Le trafic des blogs est-il principalement constitué de robots ? »
      • Reçu une réponse générale indiquant que les robots représentent une grande partie du trafic web
      • Conclu que votre trafic doit donc être artificiel

      Il s’agit d’une déduction qui s’ajoute à une généralisation.

      5. Une manière précise de répondre

      Si vous souhaitez répondre calmement et de manière structurée, vous pourriez dire quelque chose comme :

      Si Bing a fourni une statistique générale sur le trafic web mondial, y compris les robots, cela ne constitue pas une preuve concernant mes analyses spécifiques. À moins que Bing n’ait un accès direct aux journaux de mon serveur, il s’agit d’une extrapolation à partir de tendances générales.

      Cela recadre la question de l’autorité à la méthode.

  5. Avatar de Jean-Baptiste AUXIETRE
    Jean-Baptiste AUXIETRE

    De toute façon il n’y a que certains articles en particulier CHE, IA, Genesis dans l’ordre qui provoquent des pics Chine et Singapour, les autres articles absolument pas…On le voit dans Google Analytics, il n’y a de pics que vraiment sur certains articles toujours du même type et exactement le lendemain…

  6. Avatar de Hervey

    Surpris par la fréquentation d’origine chinoise sur mon blog, je me suis interrogé sur les chiffres du compteur sans approfondir la question, faute de temps à y consacrer.
    J’ai juste remarqué que l’indice du temps de visite en question pouvait être un indicateur autre que ce qui était initialement compris en première lecture.
    Je suis passé à autre chose.
    Dit autrement j’ai abandonné la question.

    https://hervey-noel.com/quand-les-indicateurs-sont-des-leurres/

Répondre à Paul Jorion Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Ce sont des clichés de situations mouvantes. Cela dit, je n’avais aucune audience en Chine, Singapour, Japan, Corée du Sud,…

  2. Merci pour ce mea culpa embrouillé et embarrassé, Bing, mais les circonstances atténuantes que tu supplies qu’on t’accorde, ne vont…

  3. Surpris par la fréquentation d’origine chinoise sur mon blog, je me suis interrogé sur les chiffres du compteur sans approfondir…

  4. De toute façon il n’y a que certains articles en particulier CHE, IA, Genesis dans l’ordre qui provoquent des pics…

  5.  » accusations  »  »ferme » pourquoi chapitre t’il ainsi ? C’est moi qui suis trop sensible ou bien il y a…

  6. Je vous suis depuis un petit bout de temps. J’utilise un vpn de temps en temps avec IP au UK…

  7. Soupir ! … Ces âneries de « robots » finissent par être fatigantes à force d’être répétées par des trolls … volontaires…

  8. Ces chiffres mont toujours intrigué et ce soir j’ai demandé à l’ami bing ce qu’il en pense : On peut…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta