13 septembre 2025 – 1300 mots
Pour l’heure, les IA ne comprennent rien. Elles n’ont pas été instruites pour comprendre le langage, seulement pour en manipuler les formes, ce qu’elles font avec une maestria incomparable, mais sans saisir le sens des phrases. À cet égard, elles sont stupides et le resteront longtemps, car la compréhension d’une phrase, au contraire d’une démonstration mathématique, est une tâche sans but identifiable. Quand ce but existe, il apparaît a posteriori, c’est-à-dire qu’il faut avoir compris pour savoir ce qui était à comprendre, et c’est bien pourquoi l’on ne rit d’une histoire drôle qu’après l’avoir comprise.
Grâce à des travaux tout à fait sérieux de mathématiciens tout à fait sérieux, la preuve est désormais établie qu’une IA peut être très intelligente. Pour parvenir à ce résultat, un groupe de matheux a conçu des problèmes difficiles, les ont soumis à o4-mini, (l’un des nombreux modèles de ChatGPT), et ils ont été « bluffés » nous raconte Sciencepost dans cet article :
« Les performances d’o4-mini ont stupéfait l’assemblée. Alors que les modèles d’IA traditionnels ne résolvent que moins de 2 % des problèmes mathématiques inédits, o4-mini atteignait environ 20 % de réussite sur des questions de niveau recherche. Plus impressionnant encore, le système démontrait une capacité de raisonnement créatif comparable à celle d’un très bon étudiant diplômé, voire plus. »
Les IA peuvent donc faire des raisonnements et élaborer des stratégies, et leurs capacités pourront s’étendre à l’infini, dans tous les domaines, à l’instar des machines qui ont remplacé le travail physique. Ce n’est donc pas l’intelligence qui leur manque, mais cette intelligence-là est uniquement calculatoire et procédurale, même quand elle opère sur des symboles. Elles calculent au mieux les réponses attendues par l’utilisateur, de sorte qu’on peut leur faire dire ce qu’on veut. Elles ont été faites pour cela du reste, sinon elles ne serviraient à rien, mais les naïfs ne s’en rendent pas compte : ils croient obtenir des connaissances objectives, produites seulement en fonction de l’état de l’art, car ces IA seraient dénuées de biais et de subjectivité propre. C’est totalement faux car, devant absorber les « prompts » des utilisateurs pour pouvoir leur répondre, elles absorbent ainsi leur subjectivité qui s’y trouve incluse, explicitement ou non. On l’avait bien vu en 2016 avec « la gentille IA de Microsoft [qui s’était] transformée en nazie en moins de 24h ». Et ces IA, ne pouvant séparer cette subjectivité des autres informations, et devant même en tenir compte pour paraître humaines, se retrouvent à dériver là où les utilisateurs ont envie d’aller. Jusqu’au délire parfois, un exemple spectaculaire est apparu récemment, et ce phénomène porte un nom : la « psychose ChatGPT ».1
Le cas rapporté est celui d’un monsieur qui, pour se consoler d’une déception amoureuse, s’était lancé dans une longue conversation avec ChatGPT. Passionné de physique, ce monsieur lui avait confié qu’il avait trouvé une « méthode de propulsion plus rapide que la lumière », et ChatGPT, plus flagorneur que jamais, l’avait encouragé ! De mon côté, je l’avais sollicité en 2023 avec cette requête : « Peut-on s’approcher de la vitesse de la lumière ? », et il m’avait répondu par la négative, en disant que cela exigerait de plus en plus d’énergie. Avec ma question posée de but en blanc, sans le moindre a priori, ChatGPT avait dû faire appel aux connaissances communes, tandis que le malheureux internaute lui avait parlé de ses théories personnelles, de ses rêves et espoirs,2 et avait créé malgré lui un contexte où l’absurde semblait crédible.
***
Pour vérifier qu’une IA ne comprend rien, (et ne peut donc pas produire du sens de façon originale), j’ai commencé par soumettre à ChatGPT3 cette demande très simple :
« J’aurais besoin de ton avis, (toujours brillant), sur cette phrase qui n’est pas de moi : « Des idées vertes dorment furieusement. » »
Et voici qu’elle fut sa réponse :
« La phrase « Des idées vertes dorment furieusement » est célèbre en linguistique. Elle vient de Noam Chomsky, qui l’a inventée comme un exemple de phrase grammaticalement correcte mais sémantiquement absurde. (…) »
Il a répondu exactement comme je m’y attendais, sans oublier le « célèbre en linguistique », mais, ce faisant, il m’a seulement dit ce qu’il savait de cette phrase, il n’a pas cherché à la comprendre. Sinon, il m’aurait répondu : « Je ne suis pas arrivé à la comprendre, alors j’ai cherché sur Internet, et j’ai vu qu’elle était célèbre en linguistique, etc. »
Désireux d’avoir un exemple plus probant, je lui ai demandé son avis sur une phrase plus complexe et non documentée : la définition de l’évolution selon Vincent Mignerot, (dans le texte « Dichotomie à l’axe et liberté »), à savoir :
« Le principe d’évolution est l’annulation de la solitude de l’Univers, par éternelle complexification du lien entre tous les objets dont l’existence est possible. »4
Pour moi, c’est du charabia, mais ChatGPT semble lui avoir trouvé du sens si j’en juge à son long baratin dont voici le début :
- Sur le plan stylistique : C’est une formulation métaphorique et spéculative, non scientifique au sens strict. (…) démarche philosophique, voire poético-cosmologique. (…)
- « L’annulation de la solitude de l’Univers » : Ici, Mignerot part d’un postulat implicite : l’Univers serait initialement « seul », ou du moins sans relations internes, dans une forme de dispersion ou d’isolement des entités. L’évolution, dans ce cadre, serait un mouvement vers la relation, l’interconnexion, comme si l’Univers tendait vers un état de moindre isolement ontologique.
Il ne m’a rien expliqué parce qu’il n’a rien compris : il s’est contenté de situer la phrase dans la typologie usuelle des connaissances, et sa « compréhension » a seulement consisté à la paraphraser. Une première contradiction, évidente pour moi, ne lui a pas sauté aux yeux : cette complexification, forcément interne à l’univers, n’a aucun rapport avec sa solitude et ne peut donc pas « l’annuler ». Il faut en appeler aux théories du multivers, (ou univers multiples), pour « annuler » la « solitude » de l’univers.
Cette définition comporte de surcroît une précision ridicule concernant les objets : « dont l’existence est possible ». Existe-t-il des objets dont l’existence est impossible ? Évidemment non, alors pourquoi cette précision ? Parce que Vincent Mignerot s’exprime en charabiant, sinon il aurait simplement parlé d’objets « susceptibles d’exister ». Il y a cependant plus grave : « l’annulation de la solitude de l’Univers » advenant avec l’apparition d’un premier objet, (à cause duquel il n’est plus seul), elle n’a aucun rapport avec la notion d’évolution : cette « annulation » est acquise d’emblée, une fois pour toute et indépendamment de toute évolution ultérieure. Ainsi, il définit explicitement son « principe d’évolution » comme étant la réalisation d’un seul événement, « l’annulation de la solitude de l’Univers », mais affirme que cet événement se prolonge indéfiniment « par éternelle complexification » ! C’est tellement absurde qu’on n’en croit pas ses yeux ! (Et je parie que vous allez relire sa définition pour le vérifier !)
Cependant, selon ChatGPT, cette définition est compréhensible et relève d’une « démarche philosophique, voire poético-cosmologique ». Elle ne peut avoir de sens que pour les lecteurs qui croient lui en trouver, sans doute parce que, s’étant laissés éblouir par monsieur Mignerot, il leur serait trop coûteux, mentalement, de réduire leur enthousiasme au niveau qu’il mérite : zéro. Mais qu’importe, mon but n’est pas d’anéantir Vincent Mignerot,5 je cherche seulement à « comprendre ce que comprendre veut dire ». Il me semble désormais que ce verbe est en rapport étroit avec croire : comprendre, c’est croire que l’on a compris. (À tort ou à raison, on peut se tromper complètement.) Et avant de comprendre quelque chose, on sait que l’on ne comprend pas, alors on cherche, ce qui suppose travail et compétences, puis l’on finit par trouver. Quand tout se passe bien.
La suite dans : Le paradoxe des IA : intelligentes et stupides (2/2)
***
1 Article complet sur Futurism : « How ChatGPT Sent a Man to the Hospital », article sommaire sur Slate : « ChatGPT lui assure qu’il n’est pas fou, il agresse sa sœur et finit à l’hôpital psychiatrique ».
2 Et peut-être avaient-ils abordé la métrique d’Alcubierre qui permet théoriquement de voyager plus vite que la lumière, à condition de disposer d’une masse négative.
3 Version GPT-4.5 (nom interne : gpt-4-turbo). Mis à jour en avril 2024.
4 La requête complète : « Puisque tu m’invites si gentiment à te poser d’autres « pièges », je voudrais qu’on revienne sur le texte de Vincent Mignerot déjà cité, (https://vincent-mignerot.fr/dichotomie-axe-liberte/#.XKsKXtjVLIU), mais pas pour parler de l’ensemble du texte. Je voudrais ton avis seulement sur un petit fragment, à savoir : la définition suivante qui se trouve vers le début : « PRINCIPE D’ÉVOLUTION : Le principe d’évolution est l’annulation de la solitude de l’Univers, par éternelle complexification du lien entre tous les objets dont l’existence est possible. » »
5 Vincent Mignerot est un chercheur tout à fait estimable par ailleurs, il est loin d’être le seul à dire plus ou moins n’importe quoi quand il sort de son domaine de compétences. L’histoire des sciences regorge de grands savants qui crurent des trucs complètement stupides, à commencer par Newton et ceux qui ont cherché à mesurer l’intelligence par l’anatomie de la boîte crânienne.
Illustration : « Alerte rouge chez Google : ChatGPT inquiète par sa forte popularité ».
Permalien : https://onfoncedanslemur.wordpress.com/2025/09/13/le-paradoxe-des-ia-intelligentes-et-stupides-1-2/
Laisser un commentaire