16 mai 2023 – 4500 mots
Titre original : « AI machines aren’t ‘hallucinating’. But their makers are » – Tribune de Naomi Klein dans The Guardian en date du lundi 8 mai 2023. Traduction DeepL retouchée.
Les PDG de la tech veulent nous faire croire que l’IA générative profitera à l’humanité. Ils se moquent de nous.
Parmi les nombreux débats qui entourent le déploiement rapide de ce que l’on appelle l’intelligence artificielle, il existe une polémique relativement obscure qui porte sur le choix du mot « halluciner ».
C’est le terme que les architectes et les partisans de l’IA générative ont choisi pour caractériser des réponses entièrement fabriquées ou carrément fausses fournies par les chatbots. Comme, par exemple, lorsque vous demandez à un robot une définition de quelque chose qui n’existe pas et qu’il vous en donne une, de manière plutôt convaincante, avec des notes de bas de page inventées. « Personne dans le domaine n’a encore résolu les problèmes d’hallucination », a récemment déclaré Sundar Pichai, PDG de Google et d’Alphabet, lors d’une interview.
C’est vrai, mais pourquoi appeler ces erreurs « hallucinations » ? Pourquoi pas déchets algorithmiques ? Ou défaillances ? L’hallucination fait référence à la mystérieuse capacité du cerveau humain à percevoir des phénomènes qui ne sont pas présents, du moins pas en termes conventionnels et matérialistes. En s’appropriant un mot couramment utilisé en psychologie, dans les psychédélismes et diverses formes de mysticisme, les promoteurs de l’IA, tout en reconnaissant la faillibilité de leurs machines, alimentent en même temps la mythologie la plus chère du secteur : à construire ces grands modèles de langage et à les entraîner sur tout ce que nous, les humains, avons écrit, dit et représenté visuellement, ils sont en train de donner naissance à une intelligence animée sur le point de déclencher un saut évolutif pour notre espèce. Sinon, comment des robots comme Bing et Bard pourraient-ils triper dans l’éther ?
Des hallucinations ont bien cours dans le monde de l’IA, cependant elles ne sont pas le fait des robots, mais des PDG qui les ont lancés, ainsi que d’une poignée de leurs fans, qui sont en proie à des hallucinations sauvages, à la fois individuellement et collectivement. Je ne définis pas l’hallucination au sens mystique ou psychédélique du terme, des états mentaux altérés qui peuvent en effet aider à accéder à des vérités profondes, non perçues auparavant. Non. Ces personnes sont tout simplement en train de triper : elles voient, ou du moins prétendent voir, des preuves qui n’existent pas du tout, allant même jusqu’à évoquer des mondes entiers qui mettront leurs produits au service de notre élévation et éducation universelles.
L’IA générative mettra fin à la pauvreté, nous disent-ils. Elle guérira toutes les maladies. Elle résoudra le problème du changement climatique. Elle rendra nos emplois plus intéressants et plus passionnants. Elle libérera des vies de loisir et de contemplation, nous aidant à retrouver l’humanité que nous avons perdue à cause de la mécanisation capitaliste tardive. Elle mettra fin à la solitude. Elle rendra nos gouvernements rationnels et réactifs. Ce sont là, je le crains, les véritables hallucinations de l’IA et nous les entendons tous en boucle depuis le lancement du ChatGPT à la fin de l’année dernière.
Il existe un monde dans lequel l’IA générative, en tant que puissant outil de recherche prédictive et d’exécution de tâches fastidieuses, pourrait en effet être mise au service de l’humanité, des autres espèces et de notre maison commune. Mais pour que cela se produise, ces technologies devraient être déployées dans le cadre d’un ordre économique et social très différent du nôtre, un ordre dont l’objectif serait de répondre aux besoins humains et de protéger les systèmes planétaires qui abritent toutes vies.
Et comme le comprennent bien ceux d’entre nous qui ne sont pas en train de triper, notre système actuel n’a rien à voir avec cela. Il est plutôt conçu pour maximiser l’extraction de richesses et de profits – à la fois des humains et du monde naturel – une réalité qui nous a amenés à ce que nous pourrions considérer comme le stade techno-nécro du capitalisme. Dans cette réalité de pouvoir et de richesse hyper-concentrés, l’IA, loin d’être à la hauteur de toutes ces hallucinations utopiques, est bien plus susceptible de devenir un outil redoutable de dépossession et de spoliation supplémentaires.
Je vais m’attarder sur les raisons de cet état de fait. Mais tout d’abord, il est utile de réfléchir à l’objectif des hallucinations utopiques sur l’IA. Quel est le rôle de ces histoires bienveillantes dans la culture, alors que nous sommes confrontés à ces nouveaux outils étranges ? Voici une hypothèse : il s’agit d’une couverture puissante et séduisante pour ce qui pourrait s’avérer être le vol le plus important et le plus lourd de conséquences de l’histoire de l’humanité. Car ce dont nous sommes témoins, c’est que les entreprises les plus riches de l’histoire (Microsoft, Apple, Google, Meta, Amazon …) s’emparent unilatéralement de la somme totale des connaissances humaines qui existent sous forme numérique et partageable, et les enferment dans des produits propriétaires, dont beaucoup s’en prendront directement aux humains qui, par leur travail de toute une vie, a permis de former les machines sans leur permission ni leur consentement.
Cela ne devrait pas être légal. Dans le cas du matériel protégé par le droit d’auteur dont nous savons aujourd’hui qu’il a formé les modèles (y compris ce journal), plusieurs actions en justice ont été intentées pour faire valoir que cette pratique était manifestement illégale. Pourquoi, par exemple, une société à but lucratif devrait-elle être autorisée à introduire les peintures, dessins et photographies d’artistes vivants dans un programme tel que Stable Diffusion ou Dall-E 2 afin qu’ils puissent ensuite être utilisés pour générer des versions sosies des œuvres de ces mêmes artistes, les bénéfices revenant à tout le monde sauf aux artistes eux-mêmes ?
La peintre et illustratrice Molly Crabapple est à la tête d’un mouvement d’artistes qui s’opposent à ce vol. « Les générateurs d’art par IA sont formés sur d’énormes ensembles de données, contenant des millions et des millions d’images protégées par le droit d’auteur, récoltées à l’insu de leur créateur, sans parler de compensation ou de consentement. Il s’agit en fait du plus grand vol d’œuvres d’art de l’histoire. Il est perpétré par des entreprises d’apparence respectable, soutenues par le capital-risque de la Silicon Valley. C’est du vol en plein jour », peut-on lire dans une nouvelle lettre ouverte dont elle est corédactrice
Le problème, bien sûr, c’est que la Silicon Valley a l’habitude d’appeler un vol « disruption » – et s’en tire trop souvent à bon compte. Nous connaissons cette manœuvre : foncer dans un territoire sans loi, prétendre que les anciennes règles ne s’appliquent pas aux nouvelles technologies, crier que la réglementation ne fera qu’aider la Chine, tout cela en s’appuyant sur des faits bien établis. Lorsque nous nous en remettons à la nouveauté de ces nouveaux jouets et que nous commençons à faire le point sur les dégâts sociaux, politiques et économiques, la technologie est déjà tellement omniprésente que les tribunaux et les décideurs politiques lèvent les bras au ciel.
Nous l’avons vu avec la numérisation des livres et des œuvres d’art par Google. Avec la colonisation de l’espace de Musk. Avec l’assaut d’Uber sur l’industrie du taxi. Avec l’attaque d’Airbnb sur le marché de la location. Avec la promiscuité de Facebook avec nos données. Ne demandez pas la permission, aiment à dire les perturbateurs, demandez le pardon. (Et lubrifiez les demandes avec de généreuses contributions aux campagnes électorales).
Dans The Age of Surveillance Capitalism, Shoshana Zuboff détaille méticuleusement comment les cartes Street View de Google ont fait fi des normes de protection de la vie privée en envoyant ses voitures équipées de caméras photographier nos voies publiques et l’extérieur de nos maisons. Au moment où les procès en défense du droit à la vie privée ont commencé, Street View était déjà si omniprésent sur nos appareils (et si cool, et si pratique…) que peu de tribunaux en dehors de l’Allemagne étaient prêts à intervenir.
Aujourd’hui, la même chose qui s’est produite pour l’extérieur de nos maisons se reproduit pour nos mots, nos images, nos chansons, toute notre vie numérique. Tous sont actuellement saisis et utilisés pour entraîner les machines à simuler la pensée et la créativité. Ces entreprises doivent savoir qu’elles se livrent à du vol, ou du moins qu’il y a de fortes chances qu’elles le fassent. Elles espèrent simplement que le vieux scénario fonctionnera une fois de plus, que l’ampleur du vol est déjà telle et qu’il se déroule à une telle vitesse que les tribunaux et les décideurs politiques baisseront une fois de plus les bras devant le caractère soi-disant inévitable de la situation.
C’est aussi la raison pour laquelle leurs hallucinations sur toutes les merveilleuses choses que l’IA fera pour l’humanité sont si importantes. Parce que ces prétentions nobles déguisent ce vol de masse en cadeau – en même temps qu’elles aident à rationaliser les dangers indéniables de l’IA.
La plupart d’entre nous ont maintenant entendu parler de l’enquête qui demandait aux chercheurs et aux développeurs d’IA d’estimer la probabilité que les systèmes d’IA avancés provoquent « l’extinction de l’humanité ou une déchéance permanente et grave de l’espèce humaine ». Il est effrayant de constater que la réponse médiane était qu’il y avait 10 % de chances.
Comment peut-on rationaliser le fait d’aller travailler et de mettre au point des outils qui comportent de tels risques existentiels ? Souvent, la raison invoquée est que ces systèmes présentent également d’énormes avantages potentiels – sauf que ces avantages sont, pour la plupart, hallucinants. Examinons quelques-unes des plus fous d’entre eux.
Hallucination n° 1 : l’IA résoudra la crise climatique
Presque invariablement, en tête de liste des avantages de l’IA, figure l’affirmation selon laquelle ces systèmes résoudront d’une manière ou d’une autre la crise climatique. C’est ce qu’ont affirmé le Forum Économique Mondial, le Council on Foreign Relations et le Boston Consulting Group, qui expliquent que l’IA « peut être utilisée pour aider toutes les parties prenantes à adopter une approche plus informée et fondée sur des données pour lutter contre les émissions de carbone et construire une société plus verte. Elle peut également être utilisée pour réorienter les efforts mondiaux en matière de climat vers les régions les plus à risque. » L’ancien PDG de Google, Eric Schmidt, a résumé l’affaire en déclarant à l’Atlantic que les risques de l’IA valaient la peine d’être pris, car « si vous pensez aux plus grands problèmes du monde, ils sont tous très difficiles à résoudre – le changement climatique, les organisations humaines, etc. C’est pourquoi je souhaite toujours que les gens soient plus intelligents ».
Selon cette logique, l’incapacité à « résoudre » de grands problèmes comme le changement climatique est due à un manque d’intelligence. Peu importe que des gens intelligents, bardés de doctorats et de prix Nobel, disent à nos gouvernements depuis des décennies ce qu’il faut faire pour sortir de ce pétrin : réduire nos émissions, laisser le carbone dans le sol, s’attaquer à la surconsommation des riches et à la sous-consommation des pauvres parce qu’aucune source d’énergie n’est exempte de coûts écologiques.
La raison pour laquelle ce conseil très intelligent a été ignoré n’est pas due à un problème de compréhension de la lecture, ni au fait que nous avons besoin que les machines réfléchissent à notre place. C’est parce que faire ce que la crise climatique exige de nous reviendrait à dilapider des milliards de dollars d’actifs liés aux combustibles fossiles, tout en remettant en cause le modèle de croissance fondé sur la consommation qui est au cœur de nos économies interconnectées. La crise climatique n’est pas, en fait, un mystère ou une énigme que nous n’avons pas encore résolue en raison d’ensembles de données insuffisamment robustes. Nous savons ce qu’il faudrait faire, mais il ne s’agit pas d’une solution miracle, mais d’un changement de paradigme. Attendre que les machines produisent une réponse plus acceptable et/ou plus rentable n’est pas un remède à cette crise, c’est un symptôme de plus.
Si l’on élimine les hallucinations, il semble beaucoup plus probable que l’IA sera commercialisée d’une manière qui aggravera activement la crise climatique. Tout d’abord, les serveurs géants qui rendent possibles les rédactions instantanées et les œuvres d’art des chatbots sont une source énorme et croissante d’émissions de carbone. Deuxièmement, alors que des entreprises comme Coca-Cola commencent à faire d’énormes investissements pour utiliser l’IA générative afin de vendre davantage de produits, il devient de plus en plus évident que cette nouvelle technologie sera utilisée de la même manière que la dernière génération d’outils numériques : ce qui commence par de nobles promesses sur la diffusion de la liberté et de la démocratie finit par un micro ciblage des publicités pour que nous achetions davantage de produits inutiles et émetteurs de carbone.
Il existe un troisième facteur, un peu plus difficile à cerner. Plus nos canaux médiatiques seront inondés de fausses informations et de clones de toutes sortes, plus nous aurons l’impression de nous enfoncer dans des sables mouvants informationnels. Geoffrey Hinton, souvent appelé « le parrain de l’IA » parce que le réseau neuronal qu’il a mis au point il y a plus de dix ans constitue l’élément de base des grands modèles de langage actuels, le comprend bien. Il vient de quitter un poste de direction chez Google pour pouvoir parler librement des risques de la technologie qu’il a contribué à créer, notamment, comme il l’a déclaré au New York Times, le risque que les gens « ne soient plus en mesure de savoir ce qui est vrai ».
Ceci est très pertinent pour l’affirmation selon laquelle l’IA aidera à lutter contre la crise climatique. En effet, lorsque nous nous méfions de tout ce que nous lisons et voyons dans notre environnement médiatique de plus en plus étrange, nous sommes encore moins bien équipés pour résoudre les problèmes collectifs urgents. La crise de confiance est bien sûr antérieure à ChatGPT, mais il ne fait aucun doute que la prolifération des « deep fakes » s’accompagnera d’une augmentation exponentielle des cultures conspirationnistes déjà florissantes. Quelle différence cela fera-t-il si l’IA réalise des percées technologiques et scientifiques ? Si le tissu de la réalité partagée s’effiloche entre nos mains, nous nous trouverons dans l’incapacité de réagir avec la moindre cohérence.
Hallucination n° 2 : l’IA permettra une gouvernance avisée
Cette hallucination évoque un avenir proche dans lequel les politiciens et les bureaucrates, s’appuyant sur la vaste intelligence agrégée des systèmes d’IA, seront capables « d’identifier les besoins et de développer des programmes fondés sur des données probantes » qui profiteront davantage à leurs électeurs. Cette affirmation est tirée d’une étude publiée par la fondation du Boston Consulting Group, mais elle est reprise par de nombreux groupes de réflexion et cabinets de conseil en gestion. Il est d’ailleurs révélateur que ces entreprises – celles qui sont engagées par les gouvernements et d’autres sociétés pour identifier les économies à réaliser, souvent en licenciant un grand nombre de travailleurs – aient été les plus promptes à prendre le train de l’IA en marche. PwC (anciennement PricewaterhouseCoopers) vient d’annoncer un investissement d’un milliard de dollars, et Bain & Company ainsi que Deloitte seraient enthousiastes à l’idée d’utiliser ces outils pour rendre leurs clients plus « efficaces ».
Comme pour les affirmations relatives au climat, il convient de se demander si la raison pour laquelle les hommes politiques imposent des politiques cruelles et inefficaces est qu’ils souffrent d’un manque de preuves ? D’une incapacité à « voir les modèles », comme le suggère l’étude du BCG ? Ne comprennent-ils pas le coût humain de la privation de soins de santé publique en cas de pandémie, de l’absence d’investissement dans le logement non marchand alors que les tentes remplissent nos parcs urbains, ou de l’approbation de nouvelles infrastructures de combustibles fossiles alors que les températures grimpent en flèche ? Ont-ils besoin de l’IA pour les rendre « plus intelligents », pour reprendre l’expression de M. Schmidt, ou sont-ils précisément assez intelligents pour savoir qui va financer leur prochaine campagne ou, s’ils s’égarent, financer leurs rivaux ?
Ce serait vraiment bien si l’IA pouvait réellement couper le lien entre l’argent des entreprises et la prise de décision politique imprudente – mais ce lien a tout à voir avec la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à mettre leurs chatbots à la disposition du public malgré l’avalanche d’avertissements et les risques connus. M. Schmidt et d’autres ont mené pendant des années une campagne de lobbying auprès des deux partis à Washington pour leur faire comprendre que s’ils n’étaient pas libres d’aller de l’avant avec l’IA générative, sans être encombrés par une réglementation sérieuse, les puissances occidentales seraient laissées dans la poussière par la Chine. L’année dernière, les grandes entreprises technologiques ont dépensé un montant record de 70 millions de dollars pour faire pression sur Washington – plus que le secteur pétrolier et gazier – et cette somme, note Bloomberg News, s’ajoute aux millions dépensés pour « leur large éventail de groupes commerciaux, d’organisations à but non lucratif et de groupes de réflexion ».
Et pourtant, malgré leur connaissance intime de la manière dont l’argent façonne la politique dans nos capitales nationales, lorsque vous écoutez Sam Altman, le PDG d’OpenAI – fabricant de ChatGPT – parler des meilleurs scénarios pour ses produits, tout cela semble être oublié. Au lieu de cela, il semble halluciner un monde totalement différent du nôtre, un monde dans lequel les politiciens et les industriels prennent des décisions basées sur les meilleures données et ne mettraient jamais d’innombrables vies en danger pour le profit et l’avantage géopolitique. Ce qui nous amène à une autre hallucination.
Hallucination n° 3 : on peut faire confiance aux géants de la technologie pour ne pas briser le monde
Lorsqu’on lui demande s’il est inquiet de la ruée vers l’or que ChatGPT a déjà déclenchée, M. Altman répond par l’affirmative, mais ajoute avec optimisme : « J’espère que tout se passera bien ». En ce qui concerne ses collègues PDG du secteur de la tech – ceux qui rivalisent pour lancer leurs chatbots rivaux – il a déclaré : « Je pense que les meilleurs anges vont l’emporter ».
De meilleurs anges ? Chez Google ? Je suis presque sûre que l’entreprise a viré la plupart d’entre eux parce qu’ils publiaient des articles critiques sur l’IA ou dénonçaient le racisme et le harcèlement sexuel sur le lieu de travail. D’autres « meilleurs anges » ont démissionné en signe d’alarme, le dernier en date étant M. Hinton. En effet, contrairement aux hallucinations des personnes qui profitent le plus de l’IA, Google ne prend pas ses décisions en fonction de ce qui est le mieux pour le monde – il prend ses décisions en fonction de ce qui est le mieux pour les actionnaires d’Alphabet, qui ne veulent pas manquer la dernière bulle, pas quand Microsoft, Meta et Apple sont déjà tous sur le coup.
Hallucination n° 4 : l’IA nous libérera des corvées
Si les hallucinations bienveillantes de la Silicon Valley semblent plausibles pour beaucoup, il y a une raison simple à cela. L’IA générative est actuellement dans ce que l’on pourrait appeler sa phase de faux-socialisme. Cette étape s’inscrit dans le cadre d’une stratégie désormais bien connue de la Silicon Valley. Tout d’abord, créer un produit attrayant (un moteur de recherche, un outil de cartographie, un réseau social, une plateforme vidéo, un service de covoiturage…) ; le distribuer gratuitement ou presque pendant quelques années, sans modèle commercial viable discernable (« Jouez avec les robots », nous disent-ils, « voyez ce que vous pouvez créer d’amusant ! « ) ; déclarer le faire uniquement pour créer une « place publique » ou un « bien commun de l’information » ou « connecter les gens », tout en répandant la liberté et la démocratie (et en n’étant pas « diabolique »). Observer ensuite les gens devenir accros à ces outils gratuits et les concurrents faire faillite. Une fois le terrain dégagé, introduire les publicités ciblées, la surveillance constante, les contrats avec la police et l’armée, la vente des données de la boîte noire et l’escalade des frais d’abonnement.
De nombreuses vies et de nombreux secteurs ont été décimés par des itérations antérieures de cette règle du jeu, des chauffeurs de taxi aux marchés de la location en passant par les journaux locaux. Avec la révolution de l’IA, ces pertes pourraient ressembler à des erreurs d’arrondi, les enseignants, les codeurs, les artistes visuels, les journalistes, les traducteurs, les musiciens, les travailleurs sociaux et tant d’autres étant confrontés à la perspective de voir leurs revenus remplacés par un code erroné.
Ne vous inquiétez pas, hallucinent les adeptes de l’IA, ce sera merveilleux. De toute façon, qui aime le travail ? L’IA générative ne sera pas la fin de l’emploi, nous dit-on, mais seulement celle du « travail ennuyeux« , les chatbots se chargeant de toutes les tâches répétitives qui détruisent l’âme et les humains se contentant de les superviser. Pour sa part, M. Altman entrevoit un avenir où le travail « peut être un concept plus large, pas quelque chose que vous devez faire pour pouvoir manger, mais quelque chose que vous faites comme une expression créative et un moyen de trouver l’épanouissement et le bonheur ».
C’est une vision passionnante d’une vie plus belle et plus tranquille, que partagent de nombreux gauchistes (y compris le gendre de Karl Marx, Paul Lafargue, qui a écrit un manifeste intitulé Le droit à la paresse). Mais nous, les gauchistes, savons aussi que si gagner de l’argent ne doit plus être le moteur de la vie, il doit y avoir d’autres moyens créatifs de répondre à nos besoins en matière de logement et de subsistance. Un monde sans emplois de merde signifie que le loyer doit être gratuit, que les soins de santé doivent être gratuits et que chaque personne doit avoir des droits économiques inaliénables. Et soudain, nous ne parlons plus du tout d’IA, mais de socialisme.
Car nous ne vivons pas dans le monde rationnel et humaniste inspiré de Star Trek qu’Altman semble halluciner. Nous vivons sous le capitalisme, et dans ce système, l’effet de l’inondation du marché avec des technologies qui peuvent plausiblement effectuer les tâches économiques d’innombrables travailleurs n’est pas que ces personnes soient soudainement libres de devenir des philosophes et des artistes. Cela signifie que ces personnes se retrouveront face à l’abîme, et que les artistes réels seront les premiers à tomber.
Tel est le message de la lettre ouverte de M. Crabapple, qui appelle « les artistes, les éditeurs, les journalistes, les rédacteurs en chef et les dirigeants des syndicats de journalistes à s’engager pour les valeurs humaines contre l’utilisation d’images d’IA générative » et à « s’engager à soutenir l’art éditorial réalisé par des personnes, et non par des fermes de serveurs ». La lettre, signée par des centaines d’artistes, de journalistes et d’autres personnes, indique que tous les artistes, à l’exception des plus éminents, estiment que leur travail est « menacé d’extinction ». Et selon M. Hinton, le « parrain de l’IA », il n’y a aucune raison de croire que la menace ne s’étendra pas. Les chatbots « suppriment les tâches pénibles », mais « ils risquent de supprimer bien plus que cela ».
Mme Crabapple et ses coauteurs écrivent : « L’art de l’IA générative est vampirique, se régalant des générations passées d’œuvres d’art tout en aspirant le sang des artistes vivants. » Mais il existe des moyens de résister : nous pouvons refuser d’utiliser ces produits et nous organiser pour exiger de nos employeurs et de nos gouvernements qu’ils les rejettent également. Une lettre d’éminents spécialistes de l’éthique de l’IA, dont Timnit Gebru, qui a été licencié par Google en 2020 pour avoir dénoncé la discrimination au travail, présente certains des outils réglementaires que les gouvernements peuvent mettre en place immédiatement, notamment une transparence totale sur les ensembles de données utilisés pour former les modèles. Les auteurs écrivent : « Non seulement il devrait toujours être clair que nous sommes en présence de médias synthétiques, mais les organisations qui construisent ces systèmes devraient également être tenues de documenter et de divulguer les données d’entraînement et les architectures de modèles ….. Nous devrions construire des machines qui travaillent pour nous, au lieu d' »adapter » la société pour qu’elle soit « machine readable and writable ». [Compatible en lecture/écriture avec les machines, ndlr]
Bien que les entreprises eussent aimé nous faire croire qu’il est déjà trop tard pour faire reculer ce produit de remplacement de l’humain et de mimétisme de masse, il existe des précédents juridiques et réglementaires très pertinents qui peuvent être appliqués. Par exemple, la Commission Fédérale du Commerce (FTC) des États-Unis a contraint Cambridge Analytica, ainsi qu’Everalbum, le propriétaire d’une application photo, à détruire des algorithmes entiers dont il s’est avéré qu’ils avaient été formés à partir de données illégitimement appropriées et de photos récupérées. À ses débuts, l’administration Biden a fait de nombreuses déclarations audacieuses sur la réglementation des grandes technologies, notamment en s’attaquant au vol de données personnelles pour construire des algorithmes propriétaires. L’élection présidentielle approchant à grands pas, il serait temps de tenir ces promesses et d’éviter les prochains licenciements massifs avant qu’ils ne se produisent.
Un monde de contrefaçons profondes, de boucles de mimétisme et d’aggravation des inégalités n’est pas une fatalité. Il s’agit d’un ensemble de choix politiques. Nous pouvons réglementer la forme actuelle des chatbots vampiriques et commencer à construire un monde dans lequel les promesses les plus excitantes de l’IA seraient plus que des hallucinations de la Silicon Valley.
Parce que nous avons formé les machines. Nous tous. Mais nous n’avons jamais donné notre consentement. Elles se sont nourries de l’ingéniosité, de l’inspiration et des révélations collectives de l’humanité (ainsi que de ses traits les plus vénaux). Ces modèles sont des machines d’enfermement et d’appropriation, qui dévorent et privatisent nos vies individuelles ainsi que nos héritages intellectuels et artistiques collectifs. Et leur objectif n’a jamais été de résoudre le problème du changement climatique, de rendre nos gouvernements plus responsables ou nos vies quotidiennes plus agréables. Il a toujours été de tirer profit de l’avilissement des masses, qui, dans le cadre du capitalisme, est la conséquence flagrante et logique du remplacement des fonctions humaines par des robots.
Tout cela est-il trop dramatique ? Une résistance étouffante et réfléchie à l’innovation passionnante ? Pourquoi s’attendre au pire ? Altman nous rassure : « Personne ne veut détruire le monde ». Peut-être pas. Mais comme nous le montrent chaque jour les crises climatiques et d’extinction qui ne cessent de s’aggraver, un grand nombre de personnes et d’institutions puissantes semblent s’accommoder du fait qu’elles contribuent à détruire la stabilité des systèmes de survie de la planète, tant qu’elles peuvent continuer à réaliser des profits records qui, pensent-elles, les protégeront, elles et leurs familles, des pires effets. Altman, comme beaucoup de créatures de la Silicon Valley, est lui-même un survivaliste : en 2016, il se vantait : « J’ai des armes, de l’or, de l’iodure de potassium, des antibiotiques, des batteries, de l’eau, des masques à gaz de la Défense israélienne, et une grande parcelle de terre à Big Sur vers laquelle je peux m’envoler. »
Je suis presque certaine que ces faits en disent beaucoup plus sur ce que pense réellement Altman de l’avenir qu’il contribue à libérer que les hallucinations fleuries qu’il partage dans ses interviews avec la presse.
Naomi Klein est une chroniqueuse et collaboratrice du Guardian aux États-Unis. Elle est l’auteur des best-sellers No Logo et The Shock Doctrine, ainsi que professeur de justice climatique et codirectrice du Centre pour la justice climatique à l’université de Colombie-Britannique.
Illustration : The Guardian
Permalien : https://onfoncedanslemur.wordpress.com/les-ia-nhallucinent-pas-mais-leurs-createurs-oui/