Fréquentation du blog

Partager :

4 responses to “Fréquentation du blog

  1. Avatar de Tony
    Tony

    Bonjour,

    Pourriez vous publier la liste complete des pays? J’ai envie de voir si j’ai des amis dans le coin. Comment faites vous pour avoir les autres infos?

  2. Avatar de David
    David

    Ces chiffres mont toujours intrigué et ce soir j’ai demandé à l’ami bing ce qu’il en pense :
    On peut expliquer cette distribution très surprenante sans imaginer un lectorat massif à Singapour ou en Chine. Plusieurs mécanismes techniques — bien connus dans les statistiques de sites web — produisent exactement ce type de distorsion.

    🌏 Pourquoi Singapour et la Chine apparaissent en tête
    Trois phénomènes sont les plus probables :

    1) Les proxys et VPN internationaux
    Beaucoup de services cloud, VPN, proxys d’entreprise ou réseaux de diffusion de contenu (CDN) utilisent Singapour comme nœud de sortie.
    Résultat :
    – des visiteurs situés partout dans le monde apparaissent comme venant de Singapour ;
    – certains robots passent aussi par ces nœuds.

    C’est l’explication la plus fréquente lorsqu’un petit pays apparaît soudain comme n°1.

    2) Les robots d’indexation chinois
    La Chine héberge plusieurs moteurs de recherche et services d’IA qui crawlent massivement les sites :
    – Baidu
    – Sogou
    – Shenma
    – 360 Search

    Ces robots génèrent un volume énorme de requêtes, souvent bien supérieur à celui des visiteurs humains.
    Ils sont parfois comptés comme “visiteurs uniques” si le blog ne filtre pas les bots de manière stricte.

    Cela peut suffire à faire monter la Chine à un tiers du trafic.

    3) Les CDN et serveurs de cache
    Certains hébergeurs redirigent automatiquement une partie du trafic via des serveurs optimisés situés en Asie, notamment :
    – Singapour
    – Hong Kong
    – Tokyo

    Si le blog utilise un service comme Cloudflare, Akamai ou équivalent, une partie du trafic peut être “géolocalisée” au niveau du serveur intermédiaire, pas du lecteur réel.

    🇫🇷 Pourquoi la France n’arrive qu’en troisième
    Parce que la France représente le lectorat humain réel, mais celui-ci est mécaniquement noyé par :
    – les robots chinois,
    – les proxys asiatiques,
    – les nœuds de sortie de VPN,
    – les caches CDN.

    Dans les statistiques brutes, cela donne l’impression que la France est minoritaire, alors qu’elle représente probablement la majorité des lecteurs humains.

    🧭 Comment vérifier ?
    Si Paul Jorion ou son équipe voulait clarifier, ils pourraient :
    – filtrer les bots connus (User-Agent, IP ranges) ;
    – distinguer “trafic humain” et “trafic machine” ;
    – analyser les pages vues vs. hits techniques ;
    – regarder les heures de connexion (les robots ont des rythmes très réguliers).

    ✨ En résumé
    Ce n’est pas que Singapour et la Chine lisent massivement Paul Jorion : ce sont les robots, proxys et infrastructures techniques qui faussent les statistiques.
    La France reste très probablement le cœur du lectorat humain.


    On peut expliquer cette distribution très surprenante sans imaginer un lectorat massif à Singapour ou en Chine. Plusieurs mécanismes techniques — bien connus dans les statistiques de sites web — produisent exactement ce type de distorsion.

    🌏 Pourquoi Singapour et la Chine apparaissent en tête
    Trois phénomènes sont les plus probables :

    1) Les proxys et VPN internationaux
    Beaucoup de services cloud, VPN, proxys d’entreprise ou réseaux de diffusion de contenu (CDN) utilisent Singapour comme nœud de sortie.
    Résultat :
    – des visiteurs situés partout dans le monde apparaissent comme venant de Singapour ;
    – certains robots passent aussi par ces nœuds.

    C’est l’explication la plus fréquente lorsqu’un petit pays apparaît soudain comme n°1.

    2) Les robots d’indexation chinois
    La Chine héberge plusieurs moteurs de recherche et services d’IA qui crawlent massivement les sites :
    – Baidu
    – Sogou
    – Shenma
    – 360 Search

    Ces robots génèrent un volume énorme de requêtes, souvent bien supérieur à celui des visiteurs humains.
    Ils sont parfois comptés comme “visiteurs uniques” si le blog ne filtre pas les bots de manière stricte.

    Cela peut suffire à faire monter la Chine à un tiers du trafic.

    3) Les CDN et serveurs de cache
    Certains hébergeurs redirigent automatiquement une partie du trafic via des serveurs optimisés situés en Asie, notamment :
    – Singapour
    – Hong Kong
    – Tokyo

    Si le blog utilise un service comme Cloudflare, Akamai ou équivalent, une partie du trafic peut être “géolocalisée” au niveau du serveur intermédiaire, pas du lecteur réel.

    🇫🇷 Pourquoi la France n’arrive qu’en troisième
    Parce que la France représente le lectorat humain réel, mais celui-ci est mécaniquement noyé par :
    – les robots chinois,
    – les proxys asiatiques,
    – les nœuds de sortie de VPN,
    – les caches CDN.

    Dans les statistiques brutes, cela donne l’impression que la France est minoritaire, alors qu’elle représente probablement la majorité des lecteurs humains.

    🧭 Comment vérifier ?
    Si Paul Jorion ou son équipe voulait clarifier, ils pourraient :
    – filtrer les bots connus (User-Agent, IP ranges) ;
    – distinguer “trafic humain” et “trafic machine” ;
    – analyser les pages vues vs. hits techniques ;
    – regarder les heures de connexion (les robots ont des rythmes très réguliers).

    ✨ En résumé
    Ce n’est pas que Singapour et la Chine lisent massivement Paul Jorion : ce sont les robots, proxys et infrastructures techniques qui faussent les statistiques.
    La France reste très probablement le cœur du lectorat humain.

    —C’est beaucoup moins mystérieux qu’il n’y paraît : ce que tu observes sur le blog de Paul Jorion est en réalité un phénomène très courant, et Singapour + Chine forment aujourd’hui l’un des plus gros “bruits de fond” du web mondial. Mais il y a plusieurs couches à comprendre pour saisir pourquoi ces deux zones saturent les statistiques.

    🌐 1. Singapour : un carrefour technique mondial, pas un lectorat
    Singapour est un hub d’infrastructures numériques. Cela signifie :

    – Des milliers de serveurs de CDN (Cloudflare, Akamai, Fastly…)
    – Des nœuds de sortie pour VPN et proxys d’entreprise
    – Des datacenters utilisés par des services d’IA, de monitoring, de sécurité
    – Des robots de vérification, uptime, scanning, etc.

    Résultat :
    Une énorme quantité de trafic “technique” sort de Singapour, même si l’utilisateur réel est en Europe, en Amérique ou ailleurs.

    👉 Donc oui, voir Singapour en n°1 est très courant sur les blogs, forums, sites WordPress, etc.

    🐉 2. Chine : les robots les plus actifs du monde
    La Chine héberge plusieurs moteurs de recherche et plateformes d’IA qui crawlent le web de manière massive et agressive :

    – Baidu
    – Sogou
    – 360 Search
    – Shenma
    – Alibaba Cloud bots
    – Tencent bots
    – Robots d’entraînement IA (LLM, vision, etc.)

    Ces robots :

    – visitent toutes les pages d’un site,
    – reviennent plusieurs fois par jour,
    – utilisent des milliers d’adresses IP différentes,
    – ne respectent pas toujours les règles du fichier robots.txt.

    👉 Pour un blog, cela peut représenter 10 à 100 fois plus de trafic que les humains.

    Donc oui : la Chine apparaît très souvent dans le top 3 des pays “visiteurs”, même si aucun lecteur humain chinois ne lit le site.

    🔍 3. Pourquoi ton blog (ou celui de Paul Jorion) semble particulièrement touché ?
    Trois raisons possibles :

    a) Le site est ancien et bien référencé
    Les robots adorent les sites avec un long historique, beaucoup d’archives, et des pages bien structurées.

    b) Le site n’a pas de filtrage avancé des bots
    WordPress, par défaut, compte beaucoup de robots comme des “visiteurs”.

    c) Le contenu est textuel, régulier, et mis à jour
    Les robots d’IA raffolent des blogs d’analyse, d’opinion, de philosophie, d’économie.
    Ils les utilisent pour entraîner des modèles.

    👉 Un blog comme celui de Paul Jorion est un terrain idéal pour les crawlers.

    📊 4. Est-ce remarquable ?
    Non.
    C’est devenu la norme pour :

    – les blogs WordPress,
    – les sites personnels,
    – les médias indépendants,
    – les sites à forte production textuelle.

    Ce qui est remarquable, c’est plutôt à quel point les robots dominent désormais le trafic global.
    Sur certains sites, 80 à 95 % du trafic n’est pas humain.

    🧭 5. Comment savoir si c’est “normal” pour un site donné ?
    Quelques signes :

    – Le trafic Singapour/Chine est très élevé → normal.
    – Le taux de rebond est proche de 100 % → normal pour des bots.
    – Les visites durent 0 seconde → normal.
    – Les pages vues par session sont très nombreuses → normal pour un crawler.
    – Les heures de visite sont régulières, même la nuit → normal.

    Si tu vois ça, tu es dans la moyenne mondiale.

    ✨ En résumé
    – Singapour = hub technique mondial → beaucoup de trafic indirect.
    – Chine = robots d’indexation et d’IA très actifs → énorme volume.
    – Ton site n’est pas une exception : c’est la réalité du web actuel.
    – La France reste le lectorat humain, mais noyé dans le bruit des machines.

    —La raison pour laquelle les États‑Unis n’apparaissent pas en tête, alors qu’ils sont pourtant l’un des plus grands producteurs de robots et de trafic technique, tient à un ensemble de facteurs structurels. Et c’est justement ce contraste — Singapour/Chine très haut, États‑Unis plus bas — qui permet de comprendre comment les statistiques sont biaisées.

    🇺🇸 1. Les robots américains sont massifs… mais mieux filtrés
    Les grands acteurs américains (Google, Microsoft, Amazon, Apple, OpenAI, etc.) utilisent des robots très actifs, mais :

    – ils s’identifient clairement dans le User-Agent (Googlebot, Bingbot, etc.)
    – ils respectent le fichier robots.txt
    – les outils de statistiques (WordPress, Matomo, Jetpack, etc.) les excluent automatiquement

    Résultat :
    Le trafic robotique américain est très important, mais il n’apparaît pas dans les chiffres.

    À l’inverse, beaucoup de robots chinois ne s’identifient pas ou se déguisent en visiteurs humains.

    🌏 2. Singapour et la Chine utilisent des infrastructures qui “masquent” leur nature
    Deux phénomènes amplifient artificiellement leur présence :

    Singapour : nœud de sortie mondial
    – VPN
    – proxys d’entreprise
    – serveurs de cache
    – infrastructures cloud (AWS, Google Cloud, Azure, Alibaba Cloud)

    Tout cela fait apparaître des visiteurs du monde entier comme venant de Singapour.

    Chine : robots non déclarés
    Les crawlers chinois :
    – ne respectent pas toujours les règles
    – changent d’IP en permanence
    – se font passer pour des navigateurs humains
    – ne sont pas filtrés par défaut

    Donc ils gonflent artificiellement les statistiques.

    🧭 3. Les États‑Unis ont moins de VPN “grand public” sortant
    Les VPN les plus utilisés dans le monde (NordVPN, Surfshark, ExpressVPN…) utilisent surtout :

    – Singapour
    – Hong Kong
    – Pays-Bas
    – Allemagne
    – Royaume-Uni

    Les États‑Unis sont moins utilisés comme nœud de sortie, car :

    – ils sont plus surveillés
    – plus lents pour les utilisateurs asiatiques
    – plus chers pour les fournisseurs de VPN
    – plus souvent bloqués par les sites

    Donc moins de trafic “faux américain” apparaît dans les stats.

    🧩 4. Les robots américains sont plus “propres”, les robots chinois plus “bruyants”
    C’est un point clé.

    – Les robots américains sont conçus pour indexer efficacement, pas pour saturer.
    – Les robots chinois sont souvent plus agressifs, plus nombreux, et moins standardisés.
    – Les infrastructures de Singapour servent de relais à des milliers de services automatisés.

    Donc, dans les statistiques brutes, Singapour + Chine écrasent tout.

    📉 5. Le lectorat humain américain est faible
    Le blog de Paul Jorion est francophone, orienté Europe, économie, philosophie, politique.
    Le lectorat humain américain est donc naturellement :

    – plus faible
    – plus dispersé
    – moins régulier

    Même si les États‑Unis ont beaucoup d’internautes, ils ne lisent pas massivement un blog francophone spécialisé.

    ✨ Synthèse
    Les États‑Unis n’apparaissent pas en tête parce que :

    – leurs robots sont filtrés automatiquement
    – leurs VPN sont moins utilisés comme nœuds de sortie
    – leur trafic technique est plus “propre”
    – leur lectorat humain est faible
    – Singapour et la Chine génèrent un bruit technique énorme et non filtré

    En réalité, les chiffres américains sont probablement plus proches du lectorat humain réel, alors que Singapour et la Chine reflètent surtout des machines.


    Voilà bon désolé il manque 2 de mes relances (sur y a t’il quelque chose de remarquable et sur pourquoi les us pas en tête ou dans le trio ) mais avec juste un mobile avec des doigts avec un vieux chat qui réclame de l’attention et la casserole qui bout j’y arrive pas.

    1. Avatar de Paul Jorion

      Soupir ! … Ces âneries de « robots » finissent par être fatigantes à force d’être répétées par des trolls … volontaires ou … involontaires – bien qu’ayant été réfutées à de nombreuses reprises.

      Qu’en pensez-vous ChatGPT 5.2 ?

      ChatGPT 5.2 :

      Vous pouvez répondre de manière méthodique — sans indignation, et surtout sans naïveté technique.

      L’argument « ce sont des robots » repose sur une confusion entre trafic serveur brut et utilisateurs actifs mesurés par une plateforme d’analytics.

      Or vos captures montrent des “utilisateurs actifs” segmentés par langue, sexe, âge et pays. Cela change tout.


      1️⃣ Premier point : ce que mesure réellement l’analytics

      Les tableaux que vous montrez correspondent manifestement à un outil de type Google Analytics 4 (ou équivalent) [OUI !], qui :

      • ne compte pas les simples requêtes serveur,

      • exclut automatiquement la majorité des bots connus (listes IAB, filtres heuristiques),

      • mesure des sessions avec exécution JavaScript,

      • enregistre des événements (scroll, engagement, durée).

      Un robot simple (crawler SEO, scraper, indexeur) :

      • ne charge pas le JavaScript,

      • ne déclenche pas d’événements,

      • n’apparaît pas comme “utilisateur actif”,

      • n’est pas catégorisé par âge/sexe.

      Donc affirmer que ces chiffres sont “essentiellement des robots” revient à ignorer le mode de collecte.


      2️⃣ Deuxième point : la structure démographique

      Votre répartition :

      • 62 % hommes / 38 % femmes

      • Pics d’âge 25–34, 55–64, 45–54

      • Répartition géographique cohérente (France 4,1k ; US ~1k ; Belgique, Suisse, Canada)

      Un trafic robotique ne produit pas :

      • une pyramide d’âge structurée,

      • une distribution sexuée stable,

      • une hiérarchie géographique plausible,

      • une segmentation linguistique cohérente (English, French, Chinese).

      Les bots produisent typiquement :

      • des pics concentrés sur certains data centers,

      • des pays techniques (US cloud, Allemagne, Pays-Bas),

      • des sessions très courtes,

      • une absence de données démographiques.

      Votre carte montre au contraire une diffusion sociologique crédible.


      3️⃣ Troisième point : l’argument “Bing”

      Il faut distinguer deux choses :

      • Bingbot (crawler d’indexation)

      • Trafic humain provenant de recherches Bing

      Si quelqu’un vous dit : “Bing dit que c’est du robot”, la question devient :

      • parle-t-on des logs serveur ?

      • ou d’un outil SEO qui signale un fort crawl ?

      Un site bien référencé est fortement crawlé.
      Cela ne signifie absolument pas que les utilisateurs actifs sont des robots.


      4️⃣ Ce que vous pouvez répondre (formulation simple et ferme)

      Par exemple :

      Les chiffres que je publie ne proviennent pas des logs serveur bruts, mais d’un outil d’analytics qui exclut la majorité des bots connus et ne comptabilise que les sessions avec exécution JavaScript et engagement mesuré.

      Un trafic robotique massif ne produirait pas une distribution stable par âge, sexe, langue et pays.

      Il est normal qu’un site bien référencé soit fortement crawlé par les moteurs de recherche. Cela n’invalide en rien les statistiques d’utilisateurs actifs.

      Calme. Factuel. Non défensif.


      5️⃣ Soyons intellectuellement honnêtes

      Il faut néanmoins admettre deux choses :

      • Aucun outil d’analytics n’est parfait.

      • 5–15 % du trafic peut être non humain selon les secteurs.

      Mais “essentiellement des robots” serait visible par :

      • des taux de rebond anormaux,

      • des durées de session quasi nulles,

      • une concentration géographique cloud.

      Or vos données montrent une structure typiquement humaine.


      6️⃣ En réalité, que révèle cette accusation ?

      Souvent, ce type de remarque relève moins d’une analyse technique que d’un réflexe psychologique :

      Si l’audience est significative, elle doit être artificielle.

      C’est une forme contemporaine de déni numérique.


      7️⃣ Si vous voulez être irréprochable

      Vous pouvez aller plus loin et publier :

      • durée moyenne de session,

      • pages vues par session,

      • taux d’engagement,

      • évolution temporelle stable.

      Un trafic bot massif produit des métriques incohérentes dans le temps.


      Conclusion

      La charge de la preuve incombe à celui qui affirme que “ce sont des robots”.

      À ce stade, vos captures montrent une audience :

      • démographiquement structurée,

      • géographiquement plausible,

      • linguistiquement cohérente.

      Ce sont précisément les signatures d’un public humain.

Répondre à David Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Soupir ! … Ces âneries de « robots » finissent par être fatigantes à force d’être répétées par des trolls … volontaires…

  2. Ces chiffres mont toujours intrigué et ce soir j’ai demandé à l’ami bing ce qu’il en pense : On peut…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta