Le recrutement informatique teste ce que l’IA restitue aussi bien que l’homme, par Jean-Baptiste Auxiètre

Illustration par ChatGPT

L’aptitude à la logique prévaut aujourd’hui sur la connaissance des mots clés des langages informatiques (mémoire) – mais celle-ci n’est pas testée chez les candidats

Un paradoxe traverse aujourd’hui le recrutement informatique. Les grands modèles de langage ont rendu triviale la restitution des syntaxes, des signatures d’API, des noms de fonctions, bref de tout ce que l’on appelait autrefois « connaître un langage ». Demander à un candidat de réciter la différence entre let et const, de se souvenir de l’ordre des arguments de array_map en PHP, ou de retrouver de tête la syntaxe d’une jointure SQL exotique, c’est tester une compétence que n’importe quel IDE moderne couplé à un LLM exécute en quelques secondes.

Et pourtant, c’est exactement ce que continuent à tester les entretiens techniques. HackerRank, Codingame, questions pièges sur les subtilités du typage JavaScript, QCM sur les particularités de Symfony ou de Spring : l’industrie sélectionne sur la mémoire lexicale au moment précis où cette mémoire devient la partie la plus délégable du métier.

Ce que Jorion et Delbos nous ont appris

Paul Jorion et Geneviève Delbos ont établi de longue date une distinction qui éclaire ici la situation : la connaissance ne se transmet pas ; seul le travail se transmet (La transmission des savoirs – 1984). On ne donne pas à un apprenti la compétence de son maître en lui récitant ce que le maître sait – on la lui transmet en le faisant participer au travail, c’est-à-dire à l’effort de structuration d’un réel résistant.

Cette distinction, qui paraissait il y a encore dix ans une finesse philosophique parmi d’autres, devient aujourd’hui une ligne de partage opérationnelle. La mémoire lexicale – les mots clés, les API, les syntaxes – appartient à la connaissance : elle est transmissible par simple énumération, donc restituable par une machine statistique. Le travail, lui, reste irréductible : structurer un problème mal posé, articuler des contraintes contradictoires, reconnaître les causes sous les symptômes – cela ne se récite pas, cela s’exerce.

Le recrutement informatique, en continuant à tester la connaissance lexicale, teste ce que la machine restitue aussi bien que l’homme, et laisse intouché ce qui distingue encore l’un de l’autre.

Ce qui reste irréductible

Ce que les LLM ne font pas – ou font mal, ou font en hallucinant – c’est la structuration logique d’un problème mal posé. Un client arrive avec une demande floue, un système existant mal documenté, des contraintes contradictoires : performance et lisibilité, évolutivité et délai court, sécurité et ergonomie. Le travail du développeur senior consiste alors à identifier les causes réelles derrière les symptômes énoncés, à distinguer ce qui relève de la structure et ce qui relève de l’accident, à décomposer le problème en sous-problèmes dont chacun admet une solution, et à articuler ces solutions en un ensemble cohérent.

Cela, c’est de la logique au sens aristotélicien : reconnaître les causes : matérielle, formelle, efficiente, finale – d’une situation avant de prétendre la résoudre. Et cela, précisément, aucun test de recrutement standard ne le mesure.

Le paradoxe du filtrage

Le filtrage actuel produit une double erreur symétrique. D’un côté, il laisse passer – et parfois valorise – des candidats rapides à réciter, capables de résoudre un exercice LeetCode en douze minutes, mais incapables de tenir une conversation de conception architecturale sans perdre le fil des dépendances logiques. De l’autre, il exclut des profils dont la valeur ajoutée, à l’ère des LLM, serait précisément maximale : ceux qui savent penser un système, articuler des contraintes, poser les bonnes questions avant d’écrire la première ligne de code.

L’ironie est que ces profils logiciens sont ceux qui tirent le meilleur parti des LLM. Non pas parce qu’ils les utilisent davantage, mais parce qu’ils savent exactement quoi leur demander. Un LLM est une machine à exécuter des spécifications ; encore faut-il savoir spécifier. La spécification, c’est du travail au sens de Jorion et Delbos – c’est l’effort de mise en forme logique d’un réel, pas la restitution d’un lexique.

Ce que cela signifie pour l’entreprise

Continuer à recruter sur la mémoire lexicale en 2026, c’est importer dans l’équipe la compétence que la machine fait le mieux, et se priver de celle qu’elle ne fait pas. C’est acheter des exécutants là où les exécutants sont devenus la ressource la moins rare, et laisser à la concurrence les concepteurs, qui eux restent rares.

Le test qui manque est simple dans son principe, difficile à standardiser dans sa mise en œuvre : présenter au candidat un problème réel, ambigu, sous-spécifié, et observer non pas ce qu’il code, mais comment il interroge le problème. Quelles hypothèses explicite-t-il ? Quelles questions pose-t-il avant d’écrire ? Quelles alternatives envisage-t-il ? Comment justifie-t-il un choix contre un autre ?

C’est un entretien de philosophie appliquée, bien plus que de technique. Et c’est pour cela qu’il n’a pas lieu : il est coûteux, il demande des évaluateurs eux-mêmes logiciens, et il ne produit pas de score facilement comparable entre candidats. La facilité administrative l’emporte sur la pertinence fonctionnelle.

Conclusion

L’industrie informatique a construit, sur plusieurs décennies, un système de filtrage calibré pour une époque où la mémoire des syntaxes était la ressource rare. Cette époque est terminée. La ressource rare est devenue la capacité à structurer un problème – autrement dit, pour reprendre la formule de Jorion et Delbos, non pas la connaissance qu’on récite mais le travail qu’on transmet.

Tant que ce déplacement ne sera pas acté dans les grilles de recrutement, les entreprises continueront à s’étonner que leurs équipes produisent vite du code qui, pris ensemble, ne tient pas debout. Elles auront recruté sur le symptôme au lieu de recruter sur la cause.

Partager :

5 réponses à “Le recrutement informatique teste ce que l’IA restitue aussi bien que l’homme, par Jean-Baptiste Auxiètre”

  1. Avatar de Hervey

    Pour Otromeros et Gemini ?
    😉
    Mais pas seulement.

    1. Avatar de Otromeros
      Otromeros

      Parfaitement…°(^!^^)°… vu..et intégré..

      Par contre j’ai oublié de « lui » dire que son  » faute de quart  » manquait d’élégance…

  2. Avatar de pierre guillemot
    pierre guillemot

    Oui bon, la mémoire lexicale a quand même son importance dans l’apprentissage des langues (pas seulement des langages informatiques). Professionnel de l’informatique ayant atteint l’âge de la retraite (60 ans, je suis de la dernière cohorte à 150 trimestres), j’ai eu idée d’apprendre le chinois. Je suis aujourd’hui capable de disserter sur la structure des caractères, la sémantique qui est derrière etc, parce que j’ai appris et pratiqué pendant des décennies les méthodes de conception. Mais je n’arrive pas à mémoriser suffisamment de caractères, de mots, d’expressions, de connotations, pour pratiquer la langue au-delà de la vie matérielle courante (le grand âge, et puis les mots de l’anglais appris trop tard pour profiter du mécanisme de base du multilinguisme qu’on acquiert pendant l’enfance font concurrence à cette nouvelle langue). Ah oui, il y a les outils de traduction qui savent tout cela pour moi. Mais non, ça ne marche pas pour dialoguer. Si bien que je n’arrive pas à croire qu’on puisse aujourd’hui programmer (mot vieilli, je crois qu’on dit « coder ») sans être à l’aise avec le vocabulaire.

  3. Avatar de ludyveen
    ludyveen

    L’informaticien « nouveau sur le marché » peut lâcher un peu sur UML, AGILE, les frameworks etc..et n’avoir que des notions de langages mais le cahier des charges restera, encore pour un moment, un pont fragile entre le commanditaire et le chef de projet. Avant, quand le commercial promettait, le chef de projet songeait parfois à se jeter du pont, maintenant il fait appel à Vishnu, avec le risque de n’être plus qu’un intermediaire et plus le maître de sa création.
    L’installation de « petits » LLM tels que Tiny, Phi2.. en local oblige l’utilisateur à une meilleure compréhension de ces systemes. Fine-tuning, fine/fair/balanced-prompting, quelques dizaines de tokens au mieux, tres peu de persistence I/O..ne sont pas seulement des contraintes, c’est la manière d’apprivoiser son animal et ainsi, que la magie opère raisonnablement.

  4. Avatar de Ruiz
    Ruiz

    C’est le constat de la dévalorisation de tests trop spécialisés pour une utilisation immédiate de personnel sur un projet dans une technologie figée. Exige-t-on la parfaite connaissance du codage hexadécimal pour qui doit manier un assembleur symbolique ou celle dudit langage machine pour qui devra coder dans un langage de haut niveau ?
    Dans les grandes organisations le recrutement ne se fait-il pas sur d’autres critères, d’autres épreuves plus générales (diplome d’ingénieur …) dans une perspective à plus long terme et un apprentissage sur le tas avec les outils à mettre en oeuvre (qui peuvent être des LLM ..) ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta