IA : l’illusion d’intelligence qui nourrit une bulle et les limites que l’on refuse de voir
L’intelligence artificielle n’a rien d’un artefact sorti d’un film futuriste, même si le récit médiatique actuel donne parfois cette impression. Derrière le mot « intelligence », il n’y a aucune étincelle de conscience, aucune intention, mais la rencontre féconde entre deux disciplines très concrètes : les mathématiques, en particulier les statistiques, et l’informatique. Depuis Alan Turing, l’IA consiste à automatiser des opérations de traitement de données que l’humain effectue plus lentement et avec plus de fatigue. Les autopilotes, les moteurs de recherche ou les systèmes de recommandation n’ont jamais été autre chose que des calculs sophistiqués exécutés à haute fréquence. C'est avant tout de l'informatique combinée à des techniques mathématiques.
Si ce champ, ancien, fait aujourd’hui irruption avec fracas dans le débat public, c’est grâce à un type de modèles qui a bouleversé l’imaginaire collectif : les Large Language Models (LLM). Avec ChatGPT et ses dérivés, pour la première fois, des systèmes semblent manier la langue avec une aisance presque humaine. L’effet de sidération a été immédiat. Les LLM ont traversé les frontières sectorielles, pénétré les entreprises, les écoles, les rédactions, et transformé en profondeur le rapport de millions de personnes à la technologie. Une telle diffusion aurait été inimaginable il y a seulement cinq ans.
Pour comprendre ce qui se joue réellement, il faut revenir au fonctionnement de ces modèles. Un LLM ne pense pas, il ne raisonne pas et ne comprend rien. Il calcule la suite de mots la plus probable à partir des milliards de textes qu’on lui a montrés. Son apparente intelligence n’est qu’une illusion statistique. Il ne manipule ni idées ni concepts, mais uniquement des corrélations, des distances sémantiques (techniquement : en transformant les mots en tokens sur lesquels sont opérés des opérations algébriques dans un espace vectoriel multidimensionnel). Confronté à une question délicate, il peut déclarer une vérité comme inventer un fait faux avec une assurance égale, non par ruse mais par nature computationnelle. Ce que l’on appelle des « hallucinations » n’est pas un défaut, mais une conséquence directe de cette architecture. Gary Marcus le formule sans détour : les LLM ne savent pas, ils devinent.
Cette réalité explique la prudence, voire l’inquiétude, de nombreux chercheurs de premier plan. Yann LeCun insiste sur le fait que ces modèles ne savent pas raisonner. Yoshua Bengio souligne leur incapacité à saisir la causalité. Fei-Fei Li rappelle qu’aucune intelligence réelle ne peut émerger d’un système qui n’a jamais interagi physiquement avec le monde. Même Geoffrey Hinton, figure tutélaire du deep learning, reconnaît désormais les fragilités profondes du paradigme actuel.
Ces limites scientifiques rencontrent désormais des limites économiques. Pour maintenir l’illusion d’une ascension ininterrompue, les géants technologiques ont investi des sommes colossales. Plus de 250 milliards de dollars de CAPEX ont été engagés en deux ans pour construire des data centers, acquérir des GPU et déployer les infrastructures nécessaires à l’entraînement des modèles. Or, ces investissements ne reposent pas sur une rentabilité démontrée. Le rendement du capital des grandes plateformes technologiques a chuté de 17 % en 2021 à 11 % en 2025, tandis que le taux d’utilisation réel des GPU ne dépasse pas 65 %, un niveau qui révèle une surcapacité structurelle.
Les analyses économiques disponibles ajoutent une incertitude encore plus profonde. Les estimations de l’impact réel de l’IA sur l’économie divergent à un niveau inédit. Daron Acemoglu estime que seulement 5 % des tâches seraient réellement affectées, tandis que l’Organisation internationale du Travail avance le chiffre de 41 %.
La question centrale, celle de la captation des profits, est elle aussi ouverte. Les marchés parient sur une concentration des gains dans les mains des producteurs de modèles. Mais cette hypothèse n’est crédible que si les modèles continuent de croître en performance, ce que contredit la réalité scientifique. Miser sur une rentabilité future qui supposerait une intelligence émergente revient à construire un château de cartes sur un pari technologique extrêmement fragile.
Le paradoxe est ici évident. Alors même que les LLM dominent l’imaginaire collectif, ils forment une impasse technique dans la perspective d’une intelligence générale. Tous les experts qui connaissent en profondeur ces architectures s’accordent sur un point rarement relayé dans la sphère médiatique : les LLM plafonnent déjà. Ils resteront utiles, parfois indispensables, pour des usages précis comme la synthèse, l’assistance ou la rédaction. Mais ils ne dépasseront jamais un certain seuil de fiabilité, de logique ou de compréhension. Leur structure purement statistique les condamne à imiter la pensée plutôt qu’à la produire.
L’avenir de l’IA ne se jouera donc pas uniquement dans l’élargissement des LLM actuels. D’autres voies existent. Les modèles hybrides neurosymboliques cherchent à combiner réseaux neuronaux et logique explicite afin de permettre un raisonnement authentique. L’IA causale, chère à Judea Pearl, vise à comprendre les relations de cause à effet et non la simple corrélation. Les approches dites World Models, défendues par LeCun, aspirent à doter les systèmes d’une représentation du monde qui dépasse le langage. Fei-Fei Li continue de plaider pour une IA incarnée, capable d’apprendre au contact du réel. Enfin, certains chercheurs explorent des modèles plus modestes mais spécialisés, plus explicables et plus économes, en rupture avec la course au gigantisme.
Il ne s’agit pas de jeter les LLM aux oubliettes. Leur contribution est immense. Ils ont ouvert le champ des possibles, démocratisé l’accès à l’IA, accéléré la production de connaissances et transformé des métiers entiers. Mais il serait dangereux de confondre un succès spectaculaire avec une trajectoire scientifique durable. La bulle d’anticipation qui gonfle autour des LLM détourne l’attention des impasses conceptuelles du modèle et oriente les investissements vers une architecture qui ne pourra jamais produire l’intelligence générale que certains promettent.
L’histoire de la technologie n’avance pas par amplification infinie d’une même idée, mais par bifurcation. Il est temps de préparer les prochaines. La véritable révolution de l’IA viendra moins de modèles toujours plus vastes que de modèles véritablement plus intelligents. Et l’intelligence, à la différence de la performance, ne se mesure ni en milliards de paramètres ni en kilotonnes de GPU, mais dans la capacité à comprendre, à raisonner et à interagir avec le monde.
Commentaires
Enregistrer un commentaire