FAUT-IL FERMER LA BOURSE ? PAS LA PEINE, LES ORDINATEURS S’EN CHARGENT !

Ce texte est un « article presslib’ » (*)

Vous vous souvenez de Nanex ? C’est la firme qui récolte des données relatives aux opérations sur les marchés boursiers et qui avait mis en évidence, à l’aide de très beaux graphiques d’ailleurs, la manipulation des cours par des robots « honnêtes », je veux dire ceux qui se contentent de faire monter les cours. J’avais reproduit quelques-uns de ces graphiques dans un billet ici ; j’ai discuté la question dans Le capitalisme à l’agonie (Fayard 2011), aux pages 136 à 161

Aujourd’hui, Nanex nous offre une autre belle image : qu’est-ce qui se passe quand il n’y a plus que des robots à la Bourse ? La réponse fera plaisir à certains : « Ça ne paie plus ! » Pourquoi ? Parce qu’y gagner quelque chose revient de plus en plus cher.

J’avais montré dans une simulation informatique que j’avais faite (Kyoto 2006) que pour que la Bourse fonctionne sans krach, il fallait qu’il y ait en permanence 50 % d’intervenants (acheteurs et vendeurs) qui parient juste sur le fait que le prix va baisser ou grimper, et 50 % qui se trompent, autrement dit, il fallait que notre capacité à prédire juste l’évolution du prix à la Bourse ne dépasse pas le rendement du simple pile ou face. Mais les robots sont bien meilleurs que nous. Non pas qu’ils sachent lire l’avenir, mais parce qu’ils ont la capacité de cartographier entièrement l’ensemble des offres à l’achat et à la vente présentes sur le marché. Ils le font en faisant semblant d’acheter ou de vendre mais pour se rétracter aussitôt : en annulant l’opération en cours. Résultat, la proportion d’opérations engagées qui aboutissent véritablement à une transaction (achat/vente) chute et le coût de chaque transaction augmente (je rapporte dans Le capitalisme à l’agonie – p. 156 – des chiffres mentionnés par la commission d’enquête sur le krach éclair du 6 mai 2010 : 27.000 opérations en 14 secondes, ne débouchant que sur 200 transactions).

Le graphique de Nanex montre des opérations à la Bourse de New York, du 1er janvier 2007 au 14 septembre 2011. Les plus anciennes sont en violet, les plus récentes en rouge de plus en plus vif. En abscisse, c’est-à-dire l’axe horizontal, les heures d’ouverture du marché : de 9h30 à 16h00. En ordonnée, c’est-à-dire l’axe vertical, le nombre d’opérations nécessaires pour traiter l’équivalent de 10.000 $.

 


© Nanex (cliquez sur le graphique pour l’agrandir)

Comme vous le voyez, la situation se dégrade très rapidement : la dernière séance enregistrée, celle de mercredi dernier, 14 septembre, est en trait rouge épais.

À la Bourse de New York, ces jours-ci, la loi de la baisse tendancielle du taux de profit dont parlait Karl Marx est en pleine forme. Faut-il fermer les Bourses ? Pas la peine de se gratter la tête : les ordinateurs sont en train de régler le problème, et à toute allure !

(*) Un « article presslib’ » est libre de reproduction numérique en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.

Partager :

102 réflexions sur « FAUT-IL FERMER LA BOURSE ? PAS LA PEINE, LES ORDINATEURS S’EN CHARGENT ! »

  1. Heureusement qu’il y a des humains qui donnent à becqueter aux bécanes :
    http://www.latribune.fr/bourse/20110916trib000649800/comment-les-banques-centrales-ont-dope-le-cac-40-en-2010.html
    « La dernière en date remonte au 10 mai 2010, période où les marchés d’actions européennes, en pleine crise de la dette, évoluaient alors à des des plus bas annuels. Or, il ressort que l’intervention des banques centrales s’était traduite par un bond de plus de 12 % pour le CAC 40 en un mois. Plus globalement, on peut considérer que l’action concertée de mai 2010 constituait un signe avant-coureur des mesures d’assouplissement quantitatif proposées par la Fed fin août 2010, au travers du fameux QE2, qui avait alimenté un courant haussier jusqu’à la mi-février 2011. »

  2. La seule chose que montre ce graphique c’est qu’il faut de + en + d’opérations pour traiter 10 000$. Cela montre que les ordinateurs sont devenus plus rapides et capable de traiter simultanément un nombre très élevé d’opérations…Les ordinateurs ont expulsés les humains de la bourse, ils ont pris le pouvoir ! C’est la seule conclusion qu’on peut tirer ! Mais derriere les ordinateurs il y a quand même ceux qui les programment et qui tirent les ficelles…La Bourse a cessé d’être un jeux de hazard pour devenir une science informatique accessible uniquement à quelques uns…Est ce la le motif de fermeture ?

    1. Non justement! même les programmeurs sont à la ramasse à mon avis…la machine échappe aussi, notamment dans les usages imprévus qu’on peut en faire, à celui qui la conçoit et la fabrique. Ainsi le programmeur conçoit un programme et un logiciel mais une fois qu’ils sont lancés, il n’a plus grand chose à dire. Donc, personne ne maîtrise rien, même les traders sont agis à leur insu par une force qui les dépasse…soupçonner l’agissement de programmeurs derrière les ordinateurs est encore une façon commode de se rassurer en croyant que l’homme maîtrise le cours des choses…

  3. Monsieur Jorion,

    Je vois dans cette histoire l’aboutissement de l’idée que le Marché veille à la meilleure répartition possible des biens et des services. Il suffit de le laisser agir tout seul pour que tout le monde aille pour le mieux dans le meilleur des mondes.

    Dans ce cadre, la seule chose possible est de connaître ses lois pour veiller à ce qu’il marche le mieux possible en spéculant avec énergie. Selon la théorie en vigueur, les spéculateurs veillent à ce que le Marché fonctionne de façon optimale en profitant de toutes ses imperfections pour se faire de l’argent. C’est le point de départ des vices privés et des vertus publiques.

    Les traders HFT ont poussé cette logique jusqu’au bout. Mais ils ont renoncé à une hypothèse de base de la théorie classique. Ils savent que le Marché peut être manipulé, ne s’en privent pas et dégoutent les autres spéculateurs de jouer avec eux car les HFT ne respectent pas la croyance que le Marché ne se manipule pas.

    Nos élites se retrouvent là avec un problème. Les HFT démontrent que le Marché financier se manipule. Interdire les HFT, c’est admettre que cette hérésie est possible et c’est aussi commettre l’autre grande hérésie qui consiste à réguler ce fameux Marché. Il en perdrait sa posture de dieu qui règle au mieux les rapports humains. Laisser aller, c’est donner à quelques acteurs tout le pouvoir sur toute notre société. Les propriétaires de ces ordinateurs deviennent encore plus puissants que ce que ce je peux imaginer. Le lien entre libéralisme et démocratie saute.

    Ces ordinateurs sont l’aboutissement de la rationalité la plus pure. Ils sont l’aboutissement de la volonté de profiter de chaque faiblesse du marché. Ils sont l’aboutissement de l’idée que confier toutes nos relations au Marché est bon et qu’il ne peut absolument pas sortir du mal de ce pari.

    Les HFT établissent que ce pari est perdu. Retour au politique et à la société. Sur quelle base ?

    PS : Vous pourrez dire à Guy Sorman que l’Europe des marchands est aussi attaquée par les HFT.

  4. @ Paul Jorion
    Votre explication technique m’échappe ou, du moins, j’aimerais m’assurer de sa compréhension.
    Pouvez-vous nous consacrer quelques minutes pour répondre (ou l’un de vos excellents blogueurs)?

    Ce que je comprends de votre papier : il est de plus en plus difficile de gagner de l’argent en bourse. Par exemple, le nombre d’opérations (aller-retour?) nécessaire à un gain de 10.000 € devient considérable et coûteux, donc moins rentable. Ce n’est pas un hasard et ce n’est pas un phénomène isolé. Du coup, les investisseurs vont naturellement se détourner de la bourse.

    Pourquoi coûteux ?
    1) parce qu’il faut des ordinateurs chers et super puissants pour effectuer au mieux les arbitrages susceptibles de générer les gains espérés
    2) parce qu’en période de baisse prolongée, les marges de manœuvre bénéficiaires se réduisent (le gâteau se réduit)

    Autrement dit, la bourse redevient un simple lieu d’échange de titres où la spéculation n’a plus d’intérêt car trop coûteuse ?

    Est-ce bien cela que vous nous dites ?

    1. @ Thom

      Il ne s’agit pas du nombre d’opérations pour un « gain » de 10.000 €, mais pour le traitement de 10.000 €, sur lesquels les gains réels seront infiniment plus petits.

      Coûteux parce qu’il faut :
      – les ingénieurs qui programment les bestioles informatiques ;
      – les bestioles informatiques ;
      – et surtout les emplacements (au plus près de la Bourse pour gagner quelques nano-secondes dans les transferts des ordres) et les câbles en fibre optique (dernier exemple en date le fameux câble à 300 millions de $) pour gagner aussi de précieuses nano-secondes.

      Viendra le moment où l’investissement pour gagner 1 nano-seconde ne sera plus rentable par rapport à l’espérance de gain.

      1. Merci, Julien, j’étais assez proche du mécanisme, ordre de grandeur des enjeux (10 K€) mis à part.

        Finalement, c’est bien cela, il devient de plus en plus cher de gagner quoique ce soit à la bourse. Chercher à gagner une nano-seconde sur le voisin pour gagner plus que lui, avant lui, devient inaccessible au plus grand nombre. Demain, ce n’est pas d’un câble à 300 Millions $ dont on aura besoin mais à 3 milliards (comme l’homme qui les valait dans les années 70 🙂 )

        Mais poursuivons le raisonnement, SVP.
        Quelles sont les implications évidentes de ce phénomène mis en évidence ici ?
        J’en vois au moins deux, mais merci de compléter si davantage.
        1) Je crois comprendre que c’est la fin programmée de la bourse puisqu’elle est pipée, c’est bien ça ?
        2) Comment se financer sur le marché quand on est une entreprise, alors ? Surtout si les banques ferment elles aussi le robinet ?

      2. Juste une parenthèse sur les « nanosecondes. »
        Les ordis à 3 GHz traitent l’info élementaire en 1 ns (en gros limite du temps d’accès mémoire), Par ailleurs, 1ns représente une propagation d’information sur 20 cm (vitesse de la lumière sur les fibres = 200 000 km/s). C’est aussi la taille des connections de la carte mère et ce n’est pas un hasard…
        Je ne pense pas que qui que ce soit s’échine à gagner des nanosecondes en jouant sur 20 cm de câble, quand on a fait un peu de câblage d’immeuble, c’est désespéré.
        L’échelle de temps du HFT, amha, est la milliseconde(*), et pour « gratter » dessus, on va effectivement y aller microseconde par par microseconde « s’il le faut » (200 m).

        (*) c’est le temps qu’il faut pour transmettre tout un paquet d’info, car l’info est empaquetés N fois entre la mémoire et le transit sur la fibre, avec 7 couches dont la couche physique n’est que la première. La taille d’un paquet typique doit être quelques kOctets, soit 100 kbits, ce qui, même sur une ligne à 10 Gb/s purement dédiée, prend 10 microsecondes. Je doute qu’une transaction puisse être codée sur un seul paquet ne pour des raisons de sécurité (cryptage ?), donc il faut au moins 50 microsecondes de temps de fibre disponible pour transmettre, et avant et après, les ordis des deux bords doivent mettre à jour d’importants fichiers, la fibre prend quelques km si la banque est pas trop loin de la bourse, donc quelques dizaines de microsecondes là aussi. Mis bout à bout, on taquine la fraction de milliseconde dans ce cas optimiste.
        La « nanoseconde », c’est un peu pour la frime, comme si le processeur décidait de jouer au casino à chaque coup d’horloge (3 GHz).

      3. @ Timiota

        Merci, ô Vénérable Timiota, pour ces explications techniques mais fort intéressantes.

        Ainsi – on s’en doutait – c’est tout autant la distance que le volume de transactions (aller-retour) simultané qui permet de générer quelques mini-bénéfices. Tout cela mit bout à bout finit par faire du profit… quand on est le seul à le faire !! Lorsque cela devient « monnaie » courante, cela ne rapporte plus rien puisque tout le monde fait pareil, avec la même vitesse. CQFD.

      4. @timiota

        Si les agents en question utilisent des réseaux de type Internet, alors il ne s’agit pas d’une architecture en 7 couches commes vous dites mais plutôt en 4 couches.

        La taille d’un paquet dépend, à part des données en soi, du nombre de couches à traverser (chaque couche encapsule son en-tête dans le paquet) et de la MTU (maximum transmission unit) du réseau. Sur ce genre de réseau dédié, la MTU doit être plus élevée que la normale et donc, le taux de fragmentation des paquets doit être plus petit que celui qui a cours sur l’internet, ce qui va aussi accélérer le taux de leur transfert.

      5. Merci Eric

        Je voulais en effet lancer le débat plutot que de prétendre à l’exactitude. La dernière fois que j’ai compris tout d’une transmission, depuis le langage machine et l’oscilloscope jusqu’au résultat, c’était du temps du 6502 8 bit qqs MHz. Depuis, j’ai suivi quelques morceaux, mais pas du tout le détail, … imaginez ce que je pense de Bill Gates quand, en plus, Windows rajoute ses caprices sur les N couches du réseau.

        En revanche, côté vitesse de la lumière dans la fibre ou de l’info électromagnétique dans le câble, je n’ai guère de doute sur les chiffres que j’ai avancés.

        Pour fantasmer un peu, ces gens qui vont s’envoyer des paquets d’infos entre eux pour espérer grapiller quelque chose, ça rapelle les modèles de physiques les plus fous, ou pleins de choses un peu aléatoires fournissent quand même une propriété émergente « forte ». Lee Smolin (l’auteur de « The trouble with physics ») s’amuse par exemple à faire ressortir la mécanique quantique des fluctuations stochastiques d’un ensemble de choses qui n’est plus quantique que ça en lui-même.
        (Ne m’en demandez pas plus)

      6. De rien timiota!

        Dans les transmissions, je me débrouille bien car je suis encore à l’université et les réseaux sont ma spécialité (niveau master). Mais à la mécanique quantique je ne touche pas, j’apprends sur le tas et , par exemple, j’ai grand mal à suivre la formulation hamiltonienne du principe de variation statistique dans l’étude que vous proposez dans le lien.

        Pour le reste, oui les chiffres sur les vitesses de transmissions sont correctes. Comme la vitesse est un facteur très important dans ces réseaux, ils peuvent aussi jouer sur le routage : leurs réseaux ne sont pas très vastes, après peu de temps d’expérimentations ils pourront très facilement fixer des routes statiques pour les paquets et leurs applications s’épargneront d’exécuter Dijkstra et autres algorithmes de routage, glanant ainsi quelques millisecondes. Bref, il y a un large évantail d’optimisations faisables sur la vitesse.

        Merci pour toutes vos interventions, parfois c’est hardu mais c’est très stimulant.

  5. Bientôt des transactions payables en or à la Bourse suisse :

    Des lingots d’or le 5 septembre 2011 à Prague
    © AFP/Archives Michal Cizek

    Le règlement en or des transactions boursières – une première mondiale – sera bientôt possible en Suisse, a annoncé lundi à Zurich la société Six Securities Services, spécialisée dans les opérations post-marché (règlement et livraison des titres boursiers).

    « C’est le premier système de livraison contre paiement en or dans le monde », indique la société dans un communiqué.

    Concrètement, les clients désireux de régler des transactions boursières contre paiement en or devront disposer d’un compte en XAU (unité en or) auprès de Six Securities. Ils devront également s’assurer que leur compte est bien approvisionné

    http://www.boursorama.com/infos/actualites/detail_actu_marches.phtml?num=d24dae738518f159d7efdcdb9224da42

  6. Je crois que les gouvernements européens et la BCE ont bien compris ce jeu de bandit manchot automatique. C’est à mon avis ce qui motive leur « indécision » dans l’affaire grecque. Ils laissent jouer les automates entre eux hors de notre appréhension temporelle et certains que la règle de l' »optimisme forcé » fera office de « main invisible ».

  7. Les suédois pas content des manipulations de la bourse, où ils ont investi leurs retraites :

    Les retraites des Suédois sont en Bourse, c’est une première bonne raison pour s’inquiéter de voir la Bourse de Stockholm devenir un casino. La seconde bonne raison est tout aussi importante: la stabilité et la bonne santé des économies scandinaves peut être menacée si les investisseurs étrangers perdent confiance dans les Bourses Nordiques. C’est en tous cas l’avis de quelques hauts responsables des grandes entreprises suédoises.

    http://lecercle.lesechos.fr/node/37741

  8. Sarah Connors avait raison. SkyNet existe. Le 21 décembre 2012 il entrera en phase ultime et les machines prendront le pouvoir …. A lire cet article c’est cette image qui m’est venue instantanément à l’esprit…. Finalement Terminator est un film prédictif… (désolé de cette intrusion….)

  9. J’ai pas du tout comprendre car un ordre non exécuté ne coute rien. De même que l’annulation d’un ordre. Donc qu’il faille 80 opérations pour traiter 10.000 euros ou seulement 10 je ne vois pas ce que ça change

  10. Monsieur Jorion.
    Ca m’étonnerait que vous ayez 5 minutes ces temps-ci, mais il serait peut-être utile de commencer par les bases de l’agrégation d’ « actifs ».
    Je préfère ainsi déjà le terme agrégation à celui de synthétique. C’est plus parlant.
    Et les lettrés pourraient se rendre compte qu’ils utilisent les maths dans le langage maternel et comprendre des mots comme base, variation, incertitude qui sont les fondamentaux des « produits » financiers les plus complexes. Y’a rien de trop sorcier là-dedans.

    Un exemple de base que chacun pourra comprendre avant de sauter à l’étape supérieure.
    J’ai une relation commerciale de longue durée avec quelqu’un.
    Je ne connais évidemment pas l’avenir car je n’ai pas de boule de cristal.
    Imaginons qu’au moment où je veux travailler avec lui, je décide que pour le bien de notre relation, il est nécessaire de prévoir les évolutions obligatoires des prix et nous décidons, conjointement d’une formule qui permettra de modifier ce prix en fonction du contexte extérieur à notre relation.
    Car NOUS savons que cet extérieur influera sur notre relation mais que nous n’aurons aucun pouvoir sur lui.
    Très bien. Le contexte est décrit.

    Je passe donc une commande à un sous-traitant admettons un tuyauteur (les transferts de fluide sont beaucoup plus fréquents que vous ne le pensez) . Et nous savons que le coût global de sa fourniture/prestation devra être quantifié selon le poids de chaque variation dans chaque type de coût.
    Ainsi, je quantifie :
    10% de sa fourniture est fonction du prix du cuivre.
    70% de sa fourniture est fonction du prix de la main-d’oeuvre qu’il emploie.
    20% de sa fourniture varie en fonction d’un cours de monnaie car nous ne sommes pas du même pays. (ça arrive même aux gens biens)
    Le prix à un an pourrait ressembler à ça :
    P an+1 = (delta cuivre*10 + delta MO*70 + delta risque de change*20)/100
    le delta est bien évidement la différence entre le prix au jour d’entrée en vigueur de la formule et celui un an plus tard.
    Là, nous avons maitrisé la base et UNE partie de la variation.
    Pour maîtriser la totalité de la variation ainsi que l’incertitude, il sera nécessaire de fixer des bornes pour limiter ces dernières de façon volontaire et conjointe.

    Si certains sont intéressés par la suite, faites-moi un lien vers ce sujet, et je continue dans les explications.
    N.B. : il est nécessaire de passer par les bases de la gestion pour aller plus loin dans les « produits » bancaires.

      1. Julien. Je ne fais certainement pas du prime (time). Mais où as-tu vu le concept de « prime » dans mes écrits…??
        Tu me sembles déformé par le risque, toi.

        Là, je fais un commencement en limitant, au contraire, le risque.
        Comme font les banquiers à LEUR avantage.

      2. @ Juan

        J’en pense beaucoup de bien. J’estime simplement qu’il y a un phasage nécessaire et que la priorité est à la résorption des inégalités dans les rapports de force. Pour le dire autrement, avant d’introduire la complexité de la prime, il faut simplifier le système par l’autre bout afin qu’il puisse digérer le fonctionnement de la prime.

      3. Julien, en effet. Il y a phasage.
        Et ce que tu appelles prime apparaitra naturellement lorsque je démontrerai l’inverse du but de la relation de longue durée que j’expose.
        Car ici, il s’agit d’équilibre recherché. Chose beaucoup plus compréhensible au départ.

        (j’appelle bénéfice ce que tu appelles prime, en fait)(bénéfice augmenté par le déséquilibre, bien sûr)

      4. Oui, Julien. Mais toi, tu connais tout ça.
        C’est le reste du on qui peut être demandeur. Sans vouloir me faire prier, car je m’en fous.
        Si je bosse pour des prunes, autant que je m’occupe à autre chose.

      5. Bon, déjà, dans un premier temps, je vais transférer mon premier commentaire dans le sujet des ETF, qui est plus récent, et ajouter le principe du bornage car la variation et son contrôle par le degré d’incertitude permettra aussi de comprendre le pouvoir dégueulasse des sociétés de « capital risk ». Puisque tu aimes le risque et je vais même te parler de son transfert.
        Le transfert de risque, Pierrot en parle…???
        Ca m’étonnerait…

      6. @ Yvan,

        Bonsoir,

        Le cours du professeur philippe jorion,

        http://merage.uci.edu/~jorion/papers%5CRiskMgtCreditCrisis.pdf

        http://merage.uci.edu/~jorion/

        Un exposé sur différents modèles de risques adoptés et réflexions autour d’exemples concrets, un tableau corrélant directement les type de « management / gouvernance » dans les entreprises considérées avec les pertes subies récemment…

        Noir désir Nous n’avons fait que fuir….
        http://www.youtube.com/watch?v=WcY5tzcuD1c&NR=1

      7. Merci, Jérôme.
        J’allais aborder le sujet AIG dans le commentaire suivant, justement.
        Et l’explication de la politique de GS montre bien aussi le degré d’ignominie du système. Qui se tue lui-même, d’ailleurs, en pensant contrôler la nature. Pour eux, le monde.

Les commentaires sont fermés.