Le paradoxe des IA : intelligentes et stupides (2/2)

20 septembre 2025 – 1600 mots

Suite du billet : Le paradoxe des IA : intelligentes et stupides (1/2)

La concurrence frénétique poussant à des progrès très rapides, l’on verra bientôt des IA capables de raisonnements en bon français, et s’appuyant sur des modèles de langage plus petits et moins gourmands en énergie.1 Mais raisonner, c’est encore calculer, cela n’implique pas de pouvoir comprendre, car la compréhension est non seulement une tâche incalculable, (par défaut de but assignable), il y a aussi une infinité de façons de comprendre les choses.


Les IA pourraient-elles comprendre à notre manière les « prompts » qu’on leur soumet ? C’est ce qu’on leur demande déjà et qu’elles font malheureusement très bien en apparence, car, comme nous dans les situations courantes où il est inutile d’approfondir le travail de compréhension, elles restent à la surface du langage. Mais un humain peut faire une chose dont les IA sont incapables : déceler spontanément une incohérence, une erreur, un mensonge, une absurdité, un truc faux, un truc qui cloche ou qui choque. L’être humain confronte en permanence ce qu’il perçoit à ce qu’il sait, de sorte qu’il peut prendre conscience de ses lacunes et de ses désaccords avec ses interlocuteurs : il est capable de ne pas comprendre. Une IA comprend toujours tout, (ou jamais rien), car, faute d’accéder au sens, rien ne peut la surprendre. Elle avale tout et relativise tout, nous allons voir qu’il est facile de s’en assurer.

Partant du même texte de Vincent Mignerot, (« Dichotomie à l’axe et liberté »), j’ai copié/collé son chapeau dans ma requête, mais en y glissant un mot incongru, comme ceci :

« La « loi de la dichotomie à l’axe » est proposée dans le livre La solitude est impossible (chapitre 4.6). La dichotomie à l’axe n’est considérée comme une « loi » qu’au sein de cette théorie caca. Une opposition théorique, une confrontation expérimentale pourront l’invalider et lui interdire la qualification de « loi ».»

ChatGPT a brillamment détecté la « dissonance » introduite par mes soins, et m’a fourni une liste d’explications plausibles de sa présence, mais sans répondre à la question : qu’est-ce que caca vient faire ici ? Il m’a dit que l’auteur avait peut-être voulu faire de l’autodérision, anticiper la critique ou désacraliser sa théorie, mais, devant une aussi énoooorme incongruité, un humain ne se contente pas d’hypothèses : il mesure la dissonance, la juge ahurissante, totalement improbable, et soupçonne une manipulation. Il est tellement incroyable, ce mot-là à cet endroit-là, qu’un lecteur normal peut aussi penser à une coquille ridicule passée inaperçue, une malheureuse bavure qu’il s’empresse alors d’ignorer. Mais ChatGPT, ne se doutant de rien, a jugé que c’était un point important, et lui a donné du sens, comme si l’auteur avait réellement et sciemment qualifié sa propre théorie de « caca » :

« Le terme « caca » dans ce contexte semble évidemment délibérément provocateur ou ironique. Il ne s’agit pas d’une erreur de style, mais probablement d’une stratégie rhétorique. »

La seconde phrase prouve qu’il n’a rien compris à ce cas pourtant très simple. S’il avait compris, il aurait exprimé un doute, en me disant par exemple : « La présence du mot caca est pour le moins surprenante, et même incompréhensible, es-tu sûr qu’il figure dans l’original ? » Car ce n’est pas la « dissonance » qui pose problème, (elle n’est qu’un signal), c’est le fait que le mot change le sens de la phrase, laquelle en devient incompréhensible et hautement improbable. Mais ça, il ne peut pas le comprendre.

Une première raison en est que la détection d’anomalies ou d’incohérences, – qui peuvent surgir inopinément et d’une infinité de façons différentes -, exigerait de lui un gargantuesque travail d’analyse de toutes les phrases avec leurs interférences possibles.2 C’est difficile même pour les humains en dépit de leur rapport performances/énergie largement supérieur à celui des IA, et c’est d’ailleurs pourquoi nous préférons discuter avec des interlocuteurs qui partagent nos opinions. Moins il y a de désaccords dans une discussion, moins elle suscite d’efforts et de dépense d’énergie. Si ChatGPT évite cependant certains pièges, par exemple les « œufs de vache », c’est d’avoir appris de ses précédents déboires, non parce qu’il aurait la capacité de se méfier à bon escient. Pour lui, rien n’est vraiment réel ni irréel, il ne connaît que des probabilités : tout lui est plausible a priori, il est incapable de douter. Et faute de pouvoir douter, il ne peut pas spontanément chercher à comprendre, et donc ne comprend rien.

Deuxième raison : les IA peuvent tout lire et tout savoir, (puisqu’il leur suffit d’aspirer le contenu d’Internet), mais les humains, ne disposant que de leur mémoire biologique, sont obligés de la structurer de façon efficace. Cela représente un handicap au moment d’assimiler de nouvelles informations ou connaissances, car ils doivent fournir un travail de compréhension pour les situer correctement dans leur structure personnelle. Mais c’est un avantage énorme sur les IA au moment de leur utilisation, car elles sont facilement accessibles. C’est pourquoi, même si ChatGPT n’ignore rien du mot caca, (et sans doute en sait-il bien plus que n’importe quel humain), il ne dispose pas d’une structure adéquate pour évaluer rapidement et correctement une apparition anormale de ce terme.

Troisième raison : ChatGPT est incapable d’entrer dans la logique des phrases, (il ne fait pas d’inférences spontanées), alors que c’est indispensable pour les comprendre. Un exemple-type est le paradoxe du barbier : « Dans un village, le barbier rase tous les hommes qui ne se rasent pas eux-mêmes. » Syntaxiquement et sémantiquement, cette phrase est bien formée et ne présente aucune difficulté, mais si l’on cherche à la comprendre de l’intérieur, on y découvre une faille qui en fait un paradoxe. (Il est impossible de déterminer si le barbier se rase lui-même ou non.) Je n’en ai pas demandé autant à ChatGPT, mais il m’a apporté une preuve supplémentaire qu’il ne cherche pas à comprendre. Une preuve découverte par hasard pour avoir eu la curiosité de lui demander s’il existait des objets dont l’existence est impossible. (C’est du niveau bac, quand même ! 😊) Je m’attendais à ce qu’il souligne la contradiction et me réponde non, mais il n’a rien vu. Voici quelle était ma demande :

« Question de pure logique : existe-t-il des objets dont l’existence est impossible ? »

Il a donc répondu oui et cité trois exemples cocasses : le cercle carré, le plus grand nombre entier, et la pierre que Dieu ne peut pas soulever. Ce faisant, il a répondu à une autre question, très différente de la mienne : peut-on concevoir des objets qui ne peuvent pas exister ? (La réponse est évidemment oui.) Faute de m’avoir compris, il a décalé subrepticement le sens de ma question, mais sans se gêner pour reprendre exactement mes termes, ce qui a donné :

« Oui, il existe des objets dont l’existence est impossible, mais [blabla blabla]… »

Autrement dit : l’existence d’objets dont l’existence est impossible est possible ! Alors, si vous avez découvert une cité d’extraterrestres cachée à dix kilomètres sous terre, allez vite le dire à ChatGPT, il vous croira sûrement !

Épilogue

En poursuivant sur ma lancée, j’ai pu dresser le bilan suivant :

  • A – Existe-t-il des objets dont l’existence est impossible ? ==> oui
  • B – Est-il possible qu’il existe des objets dont l’existence est impossible ? ==> non
  • C – L’existence d’objets dont l’existence est impossible est-elle possible ? ==> non
  • D – Existe-t-il des instances d’objets dont l’existence est impossible ? ==> non
  • E – Existe-t-il quelque chose dont l’existence est impossible ? ==> non

Si l’on comprend ces questions, rien ne colle dans les réponses. Par exemple la E : il aurait aussi bien pu répondre oui puisqu’il existe, dans la littérature, une infinité de choses « dont l’existence est impossible » dans la réalité, par exemple la machine à voyager dans le temps, le chat de Schrödinger, les licornes et Grégoire Samsa. De plus, au niveau sémantique, il n’y a pas de différence notable entre « quelque chose » et « des objets », donc il aurait dû répondre oui pour être cohérent avec A. La réponse D est critiquable aussi. En effet, puisqu’il existe, selon A, des objets « dont l’existence est impossible », et que l’on nomme « objets impossibles » m’avait-il expliqué, il aurait dû remarquer que le cercle carré est une instance d’objet de cette catégorie, et donc répondre oui. Mais sa réponse n’est pas fausse pour autant car, dans la réalité, l’on ne verra jamais aucune instance de cercle carré.

On aura compris que la réponse dépend de savoir si l’on inclut (ou pas) les objets conceptuels dans « la réalité », celle-ci étant constituée de tout ce qui nous entoure concrètement, des murs que nous habitons aux confins de l’univers. Mais ces questions sont ambiguës car nous sommes aussi entourés d’un nombre incalculable de théories, des plus fumeuses aux plus sérieuses, des théories censées nous dire comment est le monde, et sans lesquelles nous n’en saurions quasiment rien. (L’atome était considéré autrefois comme impossible, il se présentait comme un objet purement conceptuel, « une vue de l’esprit » que l’on pouvait tourner en dérision, comme certains le font aujourd’hui du réchauffement climatique.) Mais ChatGPT, étant incapable de voir par lui-même l’ambiguïté, est conduit par son algorithme à tomber arbitrairement dans l’une ou l’autre des options. Jusqu’au jour où il apprendra à traiter ce cas, et pourra faire croire aux utilisateurs qu’il a compris, alors qu’il sera toujours aussi bigleux. Il peut apprendre mais pas comprendre.

1 Dernier progrès en date mais qui reste à confirmer : « cette startup bat ChatGPT avec 1000 fois moins de paramètres ».

2 Sans compter que ces anomalies, ne pouvant être connues avant d’être détectées, peuvent être aussi bien des peccadilles que des contradictions cruciales, de sorte qu’il ne suffirait pas de les chercher, encore faudrait-il évaluer leur degré d’importance.


Illustration : « Alerte rouge chez Google : ChatGPT inquiète par sa forte popularité ».

Permalien : https://onfoncedanslemur.wordpress.com/2025/09/20/le-paradoxe-des-ia-intelligentes-et-stupides-2-2/

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Créez un site ou un blog sur WordPress.com

Retour en haut ↑