On sous-estime l'IA. Et ça se paye.
Ce que la recherche dit vraiment, et ce que ça implique pour nos pratiques
Il y a quelques semaines, un participant m'a dit un truc qui m'a trotté dans la tête pendant trois jours. « Anthony, tout ça c'est bien joli, mais ChatGPT c'est un perroquet, c’est bête. Point. » Ce qui m'a marqué, c'est pas la phrase. C'est l'assurance avec laquelle il l'a dite. Comme si c'était réglé. Comme si des centaines de chercheurs n'avaient pas passé les dernières années à montrer que c'est beaucoup plus compliqué que ça. Et ça m'a fait réaliser un truc : le plus gros obstacle à un bon usage de l'IA, c'est pas l'outil. C'est ce qu'on croit savoir dessus. Ce mois-ci j'ai creusé, lu, relu, beaucoup trop réfléchi, et cette newsletter sera probablement trop longue (Sylvain va encore me le dire). Tant pis. Certains sujets méritent qu'on prenne le temps.
La vidéo
J’ai publié une nouvelle vidéo : « On vous ment sur l’intelligence de ChatGPT ». Le titre est volontairement provoc’, je sais (mais au moins ça fait réagir, et ça lance des discussions aux bons endroits).
Parce que cette phrase du perroquet, que l’IA est bête, je l'entends partout. Et à chaque fois, c'est le même raccourci : « ça prédit le mot suivant, donc ça ne comprend rien ». Sauf que dire ça, c'est comme dire que votre cerveau ne fait qu'activer des neurones pour conclure qu'il ne pense pas. Le mécanisme de base ne dit rien sur ce qui émerge du système.
Et ce qui émerge, la recherche commence à le documenter sérieusement : des modèles qui dépassent le niveau de ce qu’on leur a montré, une IA médaillée d’or aux Olympiades de maths (en raisonnant avec des mots, pas du code), des représentations internes du monde qui se construisent spontanément, et un test d’intelligence fluide sur lequel l’IA stagnait à 5% en 2024… et dépasse désormais la moyenne humaine. Même le chercheur qui avait créé ce test pour prouver les limites de l’IA a dû revoir ses propres estimations (aïe).
Est-ce que ça veut dire que l’IA « comprend » comme nous ? C’est plus compliqué que ça. Mais est-ce que le « c’est bête », le « ça ne fait que régurgiter » suffisent encore ? Non. Et le problème, c’est que la façon dont on se représente l’outil détermine directement la façon dont on l’utilise.
En formation, je le vois concrètement. Ceux qui sont convaincus d'avoir affaire à un perroquet ne cherchent jamais à en faire un vrai partenaire de réflexion. Ils ne pensent pas non plus à vérifier sérieusement ce que l'outil produit (puisque « de toute façon, c'est approximatif »). Ils passent à côté des usages les plus puissants, et ils ne voient pas venir les erreurs les plus dangereuses. À l'inverse, ceux qui le croient pleinement intelligent arrêtent de vérifier quoi que ce soit. Les deux se plantent, et de la même manière.
La recherche remet en question l’image du perroquet depuis des années, les systèmes évoluent à une vitesse qui surprend même leurs critiques les plus informés, et on continue de les juger avec des concepts et arguments de 2021 (voire de 1980, mais ça je le raconte dans la vidéo). Je ne demande à personne d'être d'accord avec tout ce que je dis. Mais regardons au moins ce que la recherche récente montre avant de balayer le sujet.
(PS : Il existe une théorie très influente en neurosciences, le predictive processing, qui décrit notre cerveau comme une machine à prédire en permanence : il anticipe ce qu’on va voir, entendre, ressentir, et s’ajuste quand la réalité ne colle pas. Nos pensées, nos décisions, notre perception du monde, tout émergerait de ce mécanisme de prédiction. Autrement dit, le truc qu’on utilise pour disqualifier l’IA, « ça ne fait que prédire », est peut-être le même mécanisme fondamental qui produit notre propre intelligence. Sympa non ?)
Toutes les sources sont dans la description de la vidéo si vous voulez creuser.
OK, donc l’IA est plus puissante qu’on le croit. Mais qu’est-ce que ça fait, concrètement, aux gens qui l’utilisent tous les jours ?
C'est l'autre sujet sur lequel je tourne en boucle en ce moment (apparemment, je ne sais pas lâcher un sujet). Deux angles en particulier, que je trouve vraiment sous-estimés.
Le piège de la productivité. Des chercheuses de Berkeley ont suivi 200 employés pendant huit mois. Personne ne leur a demandé de travailler plus. Ils l’ont fait d’eux-mêmes. Quand tout devient accessible (coder, analyser, créer), on finit par tout faire. On se sent augmenté. Sauf que la charge ne disparaît pas, elle se déplace : vers ceux qui doivent vérifier, corriger, intégrer. Et vers notre cerveau, qui ne souffle jamais vraiment. Le pire ? Cette surcharge est vécue comme gratifiante. Dopamine de la productivité. Les entreprises voient les gains. Pas la fatigue cognitive qui s’accumule en silence. (Lire le post entier) (Lire l’article)
Et il y a ce phénomène que les chercheuses appellent le « travail ambiant » : un prompt par-ci, un autre par-là. Avant le petit-déjeuner, entre deux réunions, juste avant de se coucher. Le style conversationnel de l'IA donne l'impression de « juste discuter ». La frontière entre travail et repos disparaît, et on ne s'en rend même pas compte. Je le dis d'autant plus facilement que je suis le premier concerné : la semaine dernière, j'ai compté, j'avais envoyé une quinzaine de prompts à Claude entre 22h et minuit. Je ne travaillais pas. Enfin, je croyais que non.
Et en sciences cognitives, on sait que le cerveau a besoin de phases de « repos actif » (ce qu'on appelle le réseau du mode par défaut) pour faire des connexions entre les idées, laisser émerger des réflexions nouvelles, prendre du recul. Le travail ambiant avec l'IA court-circuite exactement ce mécanisme. On n'est pas juste fatigués : on empêche notre cerveau de faire ce travail invisible qui produit nos meilleures idées.
Le collectif oublié. Depuis un an, les entreprises forment massivement à l’IA. Individuellement, les gens montent en compétences (et c'est une bonne chose). Et pourtant, beaucoup disent que l’IA a augmenté leur charge de travail. Pourquoi ? Parce qu’on a formé des individus, pas des équipes. Le product manager génère du code avec l’IA, il se sent efficace. Mais ce code, quelqu’un doit le relire, le debugger, le maintenir. Le gain de l’un devient la dette de l’autre. Et personne ne coordonne qui fait quoi maintenant que tout le monde peut tout faire. (Lire le post entier)
La question de 2026, ce n'est plus « comment utiliser l'IA ». C'est « comment travailler ensemble maintenant que l'IA a redistribué les cartes ».
Pourquoi je vous parle de tout ça ? Parce que ça pointe vers le même angle mort. On a intégré l’IA dans les process existants. On n’a pas repensé les process eux-mêmes. Qui fait quoi quand les frontières entre métiers deviennent floues ? Comment on évalue quand le résultat brut ne suffit plus à mesurer la contribution réelle ? Comment on protège du temps de réflexion lente dans une culture qui récompense la vitesse ?
Ce ne sont pas des questions techniques. Ce sont des questions d’organisation, de management, de conception de la formation elle-même. Former à l’IA, ce n’est plus montrer un outil. C’est aider des gens (et des équipes) à redéfinir leur façon de travailler. C’est moins sympa que le prompt magique qui triplera votre productivité, mais c’est incomparablement plus nécessaire (un second livre blanc devrait sortir sur ce sujet prochainement, je vous avais dit que ça m’animait).
C’est cette approche que nous essayons de défendre avec Le Bahut. Et si vous avez envie de réagir, de contredire, de partager ce que vous observez de votre côté : c’est exactement pour ça que j’écris cette newsletter. Pas pour avoir raison, mais pour qu’on réfléchisse ensemble à des sujets qu’on ne peut plus se permettre de survoler.
Webinaire : Vibe Coding et cas d’usage avancés
Et puisqu’on parle de s’approprier l’IA… je vous prépare un webinaire le jeudi 5 mars à 11h pour vous montrer concrètement comment faire du vibe coding et explorer des nouveaux cas d’usage.
Pas de théorie abstraite, mais du concret, avec des démonstrations.
👉 Lien du webinaire : https://us06web.zoom.us/j/89082896114?pwd=alFZPQb6ZR6Ae8UmJxrUkPMMJ2WA5d.1
À très vite,
— Anthony
rédigée par Anthony Basille, PhD en sciences cognitives.
Si vous voulez vous former à utiliser l’IA pour la formation (prompting, vibecoding, automatisations...), Le Bahut propose des formations certifiantes adaptées à votre niveau.
👉 Découvrir nos formations


On sent que tu as bien étudié la chose, moi je travaille uniquement avec des dev et des CEO qui ne traitent pas Claude de perroquet mais ton sujet de charge mentale est très vrai (on fait quoi maintenant que le CEO/PM peut prototyper dix idées par semaine et qu’on peut en réaliser cinq, ou c’est quoi notre vie quand on peut prototyper une feature pendant un trajet de métro)
Les équipes sont entrain de découvrir dans la douleur ce qui va changer et il faudra un peu de temps
Super article
Les gens ont trop écouté Luc Julia...