Intelligence artificielle et bêtise naturelle

Depuis longtemps la plume nous démangeait pour dire ce qu’il faudrait vraiment craindre d’une utilisation généralisée de l’Intelligence Artificielle, (IA), mais rien de solide ne venait jamais étayer cette idée. Nous sommes déjà cernés de machines en tous genres, et certaines d’entre elles, (télévision, smartphones et Internet), nous ensevelissent déjà sous des montagnes d’informations et de distractions : que pourrions-nous craindre de plus puisque tout est « déjà là » ? Nous sommes déjà « manipulés » par des sites comme Facebook, déjà envahis de « fake news », de publicité, de propagande gouvernementale, et le projet chinois de notation de la population est appelé à faire des petits dans nos contrées, même si cela doit prendre des formes plus subtiles et moins visibles. Finalement, l’IA pourrait n’être que l’ultime perfectionnement de l’exercice du pouvoir, (dont le contrôle des foules est un pilier), ce qui n’annoncerait aucun changement dans la nature dudit pouvoir. Au 19ième siècle, les manifestations étaient encore matées sabre au clair, à l’avenir il n’y aura même plus besoin de « flash ball » et autres « armes non létales » : la population sera toujours d’accord sur tout.

S’il est bien sûr impossible de savoir ce que pourrait être un monde où l’IA serait partout, en revanche il est parfaitement possible d’affirmer que ce monde adviendra aussi sûrement que deux et deux font quatre. D’abord parce que l’IA n’en finira jamais de nous démontrer son efficacité, ensuite parce qu’il apparaîtra un jour des applications permettant de noter un texte, (ou n’importe quel contenu linguistique), pour son « niveau d’intelligence » ou son « degré d’intérêt » (pour un lecteur donné). L’on peut d’ores et déjà faire automatiquement des résumés de textes, des IA sont déjà capables d’en discerner les émotions, et l’on peut parier que les chercheurs ne s’en tiendront pas là. Il est quasi certain qu’elles ne seront jamais capables de « comprendre » un texte (ou un débat) à notre façon, mais il est certain qu’elles seront bientôt capables de ce qui restera à jamais hors de notre portée. Expliquons : elles pourront faire des analyses exhaustives et pointues pour fournir une pléthore d’informations sur un contenu linguistique quelconque, et aucun analyste humain ne pourra faire mieux. Autrement dit, elles pourront juger n’importe quel texte bien mieux que nous.

Car juger n’est pas comprendre. Cet exemple caricatural, extrait d’un « débat » entre Eric Dupond-Moretti, avocat, et Christine Angot, « écrivaine », est incompréhensible pour toute personne censée : c’est la bêtise humaine et naturelle que l’on y voit couler à flot. Bien sûr, chaque réplique est « parfaitement compréhensible » pour un francophone, mais quel est le sens global de cette scène ? Notre pronostic, c’est qu’une IA pourrait le dire bien mieux que l’auteur du post qui se contente d’une platitude : « Le ton est monté entre Éric Dupond-Moretti et Christine Angot ». Vous ne pouvez pas interpréter cette vidéo sans faire preuve de subjectivité et prendre parti dans le débat, ce qui diminue l’intérêt de votre jugement au yeux d’autrui. Pour éviter cela, vous devez faire une analyse détaillée, puis expliquer tout ce que vous avez observé, (y compris la gestuelle et les attitudes faciales), et votre lecteur ne sera finalement pas convaincu. En revanche, une IA pourrait faire tout ce travail en quelques secondes, et si elle a fait ses preuves dans d’autres cas, alors son jugement dans ce cas particulier sera d’emblée acceptable : elle aura accès à « l’objectivité ». Et ce, précisément parce qu’elle ne raisonne pas comme nous : en fait, les IA ne raisonnent pas, donc elles ne reproduisent pas nos défauts : elles ne font qu’analyser des données et synthétiser des réponses, ce qui peut se résumer en une formule : extraire de l’information. Il serait donc tout à fait possible qu’une IA extraie une certaine information de ce lamentable « débat », et que cette information soit : « Christine Angot s’efforce d’énerver Eric Dupond-Moretti ». Et ça changerait tout, car l’on serait loin du diagnostic de la banale empoignade : Christine Angot serait publiquement prise en défaut de façon « impartiale », et sa réputation, (ou le peu qu’il en reste), en serait dégradée.

Il semble que le jugement soit une capacité typiquement humaine inaccessible à une IA, mais ce n’est qu’un préjugé que nous devons à notre propension à vouloir aboutir à une réponse binaire : d’abord sur l’axe du bien et du mal, ensuite sur celui du pour et du contre, du positif et du négatif, etc. Un peu comme si le temps ne pouvait être que beau ou mauvais, alors que l’on peut imaginer quantité d’autres informations pertinentes. Si l’on prend par exemple ce texte en faveur de la suppression du statut des cheminots, il est facile de constater qu’il :

  • définit ce dont il parle
  • constitue une argumentation
  • emploie des mots mal justifiés dans ce contexte (indécent, alarmant, faillite, privilèges, forteresse)
  • émet un avis explicite dans son titre et à la fin.

Sans rien n’y comprendre, une IA pourrait parfaitement le noter (juger) comme étant un argumentaire raisonnable en faveur de la suppression du statut, car il y est question de coûts, de management et de statistiques diverses. Il présente en outre des considérations générales, (« L’un des acquis de la recherche en management, (…), est la connaissance des mécanismes favorisant l’implication au travail. »), et d’autres spécifiques au cas étudié. Mais une IA pourrait aussi en extraire cette information : « les cheminots sont des privilégiés » (selon l’auteur). Et cette info, produite par un algorithme, pourrait être exploitée par d’autres algorithmes, en particulier pour en informer un lecteur potentiel sans qu’il ait à lire le texte, (avantage pour le consommateur), alimenter une propagande-surveillance automatisée, (avantage pour le système), ou le classer avec d’autres textes dans la catégorie « cheminots = privilégiés ».1

Selon nous, il est évident que cela adviendra, c’est d’ailleurs déjà fait dans le cas de Watson : grâce à cette IA d’IBM spécialisée en médecine, une leucémie rare a été diagnostiquée au Japon. Watson se serait « basé sur 20 millions d’études cliniques d’oncologie » pour traiter ce cas, ce qui implique qu’elle peut analyser n’importe quel document pour en extraire une information pertinente. Or c’est cela qui intéresse, l’information pertinente ! C’est le véritable enjeu, car l’info non pertinente n’est plus que du bruit. Et c’est un enjeu de taille, car il est facile de deviner qu’un site capable de sélectionner pour vous l’info pertinente, (selon vos goûts, vos besoins, vos exigences), ne pourra que drainer un large public, avec la manne publicitaire afférente.

Mais comment savoir qu’une information est pertinente ? C’est là que toute l’histoire vire au miracle, car la machine n’a nullement besoin de comprendre quoique ce soit, l’expérience suffit, comme dans la vie humaine, et comme dans la vie animale du reste. Cet article d’Usbek & Rica, sur les dessous du match entre AlphaGo et le champion du monde Lee Sedol, le montre bien : dans la quatrième manche, Lee Sedol a joué un coup qui était selon lui « le seul possible », (donc totalement pertinent), alors que la machine l’avait estimé à une chance sur 10.000, (donc sans intérêt). Il est clair qu’AlphaGo s’est trompé parce que, dans le fatras des tableaux de nombres qui lui tiennent lieu d’intelligence, quelques chiffres insignifiants n’étaient « pas assez justes ». Ce fameux « coup 78 » de la quatrième partie, qui restera dans l’Histoire, est révélateur : l’IA ne comprend jamais rien mais produit de l’information presque toujours pertinente.

Cette information pertinente est bien sûr facile à définir dans le cadre d’un jeu ou d’un problème scientifique, un peu plus difficile à cerner dans un contexte humain. Cependant, l’expérience désastreuse du « chatbot » de Microsoft, (devenu raciste et pro-nazi en moins de 24 heures), ne prouve pas que l’objectif soit très éloigné : Microsoft a simplement fait l’erreur de mettre la charrue avant les bœufs en voulant faire une IA capable de dialoguer mais incapable de juger (ou noter) les propos qui lui sont adressés. Cet échec prouve a contrario que c’est bien le jugement qui importe, parce qu’il est à la base de tout ce que l’on peut faire ensuite de l’information. Avec ses « publications suggérées », Facebook est d’ailleurs en bonne voie, et si le résultat est loin d’être fameux, on peut lui faire confiance pour améliorer son score.

Quoiqu’il en soit, à voir la bêtise naturelle qui s’étale à l’état pur et brut sur le Net, nous parions que nous ne sommes pas seul à souhaiter que des IA puissent juger des textes. Tant de gens et d’institutions y trouveraient leur compte qu’il est impossible que cela n’advienne pas. On pourra ensuite le regretter, certes, mais la bêtise naturelle est trop répandue pour ne pas susciter une réaction de sens opposé.

Règle

EDIT le 7 mai 2018 : lire aussi : « Facebook utilise l’intelligence artificielle pour prévoir vos actions futures au profit des annonceurs »

Plus de publications sur Facebook : On fonce dans le mur

Illustration : « Dire exprès des bêtises »

Paris, le 14 mars 2018

1Une recherche par mots clef remonte évidemment des textes qui soutiennent l’affirmation contraire, de sorte qu’elle est moins pertinente pour l’internaute qui s’intéresse exclusivement à « cheminots = privilégiés ».

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s

Créez un site ou un blog sur WordPress.com

Retour en haut ↑

%d blogueurs aiment cette page :