Ouvert aux commentaires.
Selon l’un des pères fondateurs de l’ultralibéralisme, Friedrich von Hayek, les individus étant nécessairement mieux informés que l’État central pour prendre leurs décisions économiques, il était donc de bonne politique pour celui-ci de s’abstenir d’interférer avec le fonctionnement spontané du marché, afin que l’offre et la demande s’ajustent sans entrave.
L’expérience soviétique montre les limites d’un système d’information centralisé géré par l’Etat. Selon Cédric Durand et Razmig Keucheyan, « la planification soviétique se caractérise par d’importants décalages entre les prévisions et les réalisations, qui sont sources d’immenses gaspillages et d’incessants accommodements informels entre les firmes » (Durand et Keucheyan 2019 : 86). L’information ne circulait pas correctement entre les unités de production et l’État central. La planification se faisait alors à partir de données erronées.
Dans les années 1950-1960, plusieurs économistes et informaticiens soviétiques élaborèrent un système de « gestion économique automatique ». Il aurait permis de réduire à la fois les gaspillages et les pénuries en optimisant le système d’information. Mais ce programme ne fût jamais expérimenté à cause des limites de capacités de calcul des ordinateurs de l’époque.
Les observations d’Hayek semblaient donc relever du simple bon sens à une époque où l’idée même d’une collecte de myriades de données sur l’état instantané du marché aurait semblé le fruit d’une imagination malade. Or ceci a cessé d’être le cas : les progrès du numérique et la connexion des objets dans l’ensemble des secteurs de l’économie, de la production à la consommation, en passant par la distribution, font que l’information instantanée est disponible dans des bases de données, la seule difficulté éventuelle pour leur interprétation étant la cohérence de la forme sous laquelle elles ont été stockées.
En 2002 déjà, Paul Jorion avait mis au point pour IndyMac Bank, importante caisse d’épargne californienne alors le 7e établissement de crédit aux États-Unis, une application permettant de voir à chaque instant combien de dossiers de prêt avaient été soumis, à quel stade de traitement du l’information ils se situaient, et quelle était la probabilité pour chacun – en fonction de l’histoire passée de demandes similaires – que le prêt soit consenti et, si oui, aux environs de quelle date.
Jack Ma, fondateur et ancien président d’Alibaba, une des plus importantes entreprises mondiales, combinaison chinoise d’équivalents d’Amazon et de Paypal, déclarait récemment ceci :
Nous allons assister à une évolution significative au cours des trois décennies à venir, et l’économie planifiée en deviendra d’autant plus importante. Pourquoi ? Parce que grâce à l’accès à divers types de données, nous serons sans aucun doute en mesure de découvrir où se situe la main invisible du marché.
Or, comme nous l’avons déjà signalé, dans un monde qui a soudain pris conscience du degré avancé de sa dégradation, du caractère limité de ses ressources restantes, et des conséquences catastrophique de la somme de comportements où chacun poursuit en toute quiétude ses buts égoïstes (la « tragédie des communs »), la fameuse « main invisible » d’Adam Smith a cessé d’être d’application, qui supposait que l’harmonie universelle serait garantie aussitôt que chacun se comporterait selon son intérêt bien compris, hypothèse qui n’était en réalité valide que dans un monde faiblement peuplé.
Un article écrit par un collectif de chercheurs en intelligence artificielle montre comment le machine learning (ou l’« apprentissage automatique ») peut être un outil puissant dans la lutte contre le dérèglement climatique (Rolnick et al. 2019). Pour rappel, le machine learning est un ensemble de techniques spécifiques à l’intelligence artificielle, se fondant soit sur des méthodes statistique ou algébriques, soit, dans le cas du deep learning, sur des réseaux de neurones artificiels (filtres constitués d’un réseau de fonctions non-linéaires) pour donner aux ordinateurs la capacité d’ « apprendre » à partir de données. Plus la base de données est importante plus l’ordinateur a la capacité d’améliorer ses performances dans la résolution de tâches, sans être explicitement programmé pour le faire.
Le machine learning permet déjà d’optimiser l’utilisation des ressources actuelles. Ainsi, dans le transport de fret, David Rolnick et al. montrent qu’on peut réduire significativement le nombre de camions ou de cargos circulant à vide. La centralisation d’une quantité considérable de données permet par son traitement de maximiser le taux de remplissement.
Le machine learning peut résoudre certains problèmes techniques jusqu’alors sans solution. Par exemple, il a longtemps été difficile de concevoir technologiquement un réseau électrique reposant uniquement sur les énergies renouvelables. Contrairement aux énergies fossiles ou nucléaire, les énergies renouvelables ont une production aléatoire – dépendant de la météo – alors qu’un réseau électrique nécessite une égalisation très fine de l’offre par rapport à la demande. Aujourd’hui, le machine learning peut gérer des smart grids (ou « réseaux intelligents ») permettant un ajustement automatique en fonction des contraintes de la production et de la consommation.
Dans un contexte de complexification de la société, la prise de décision politique peut être de plus en plus difficile. Avec le grand nombre de données disponibles, le machine learning permet d’extraire les éléments les plus pertinents pour le décideur politique. Le machine learning peut notamment permettre la visualisation de différents scénarios en fonction des politiques publiques projetées. À la différence des modèles statistiques, le machine learning permet d’agréger les informations quelle que soit leur nature (données chiffrées, informations textuelles,…). Les modèles créés grâce à cette technique sont aussi beaucoup plus flexibles que les modèles statistiques actuels : ils reposent sur un nombre significativement réduit d’hypothèses, et permettent d’analyser un plus grand nombre d’interactions entre les variables.
Ce ne sont que quelques exemples parmi d’autres car le machine learning est aujourd’hui une technologie mûre aux applications infinies : conception de modes de transport alternatifs, optimisation du design de véhicules, réalisation d’immeubles et de villes intelligentes, gestion de fermes et de forêts,… Alors que cette technique était en cours d’élaboration quand Paul Jorion était chercheur en intelligence artificielle (1987-90), il s’agit aujourd’hui d’un enseignement à part entière en école d’ingénieur (dont bénéficie, 30 ans plus tard, l’autre auteur de ce livre à l’ENSAE !).
Le big data assure aujourd’hui la collecte de données à une échelle colossale ainsi que leur premier traitement statistique en explorant l’ensemble des dimensions pertinentes et leur influence réciproque. Le deep learning, fondé sur des réseaux neuronaux à même de se corriger en cas d’échec dans l’identification et la prévision, permet ensuite d’y découvrir des formes que l’intuition humaine perçoit occasionnellement, mais à qui elles échappent le plus souvent.
Nous écrivions plus haut : « N’est-il pas envisageable alors que l’humain ait engendré, une fois de plus par ruse de la Raison, la machine qui pense comme lui (à l’aide d’un réseau neuronal artificiel) pour comprendre ce qui (à de très rares exceptions près) lui échappe : le sens de l’époque qui est la sienne. Le Big Data et le Machine Learning ne sont-ils pas précisément les outils susceptibles de faire du genre humain tout entier ‘le héros, le grand homme’ qu’évoquait Hegel ? »
Réfléchissons-y : le moment n’est-il pas venu – le timing étant en réalité idéal par une coïncidence proprement providentielle – de mobiliser les moyens désormais pharaoniques de la machine que nous avons su mettre au point par notre génie technologique, pour nous dire avec un degré de précision inimaginable jusqu’à très récemment, qui nous sommes en réalité et quels sont les moyens qui nous permettront d’échapper au destin tragique qui se profile à l’horizon pour l’humanité.
====================
Durand, Cédric et Keucheyan, Ramzig, « Planification à l’âge des algorithmes » dans Actuel Marx, n°65, 2019/1
Rolnick, David, et al., « Tackling Climate Change with Machine Learning », 5 novembre 2019
Laisser un commentaire