L’IA pourrait-elle vraiment anéantir l’humanité ?
La science-fiction le prédit depuis des décennies... Les entreprises technologiques affirment que des machines plus intelligentes que nous, et capables d’échafauder leurs propres plans feront partie d'un futur proche.

Alors que les ordinateurs et les processeurs deviennent de plus en plus performants, beaucoup se demandent à quel moment l’IA atteindra des niveaux dignes de la science-fiction.
En 1968, plus de cinquante ans avant que ChatGPT ne propose des recettes pour le dîner, un film définissait notre manière d’appréhender les machines qui nous parlent.
Dans 2001, L’Odyssée de l’espace, un vaisseau spatial en mission vers Jupiter est contrôlé par CARL 500 (ou HAL 9000, en anglais), un ordinateur pensant par lui-même et avec ses propres objectifs. Au fil du film, HAL cesse de coopérer avec les astronautes humains que son programme lui demandait d’assister, avant de finir par désactiver les systèmes d’assistance vitaux des astronautes.
HAL a semé une graine dans l’imagination du public. Celle que, un jour, nos machines deviendront si intelligentes, et si humaines, que nous perdrons toute capacité à les contrôler. Nous n’avons jamais cessé de croire en cette possibilité. Avec le récent avènement des programmes d’IA générative, capables d’entretenir des conversations à l’écrit, de produire des images réalistes et d’accomplir une myriade de tâches pour nous, certains technologues pensent que les machines superintelligentes décrites dans les œuvres de science-fiction se rapprochent de plus en plus de la réalité.
Il est vrai que les capacités de certains chatbots, tels que ChatGPT d’OpenAI et Gemini de Google, sont remarquables. Mais est-ce que ces technologies sont vraiment une pierre placée sur le chemin qui aboutit au Data de Star Trek, à C-3PO de Star Wars, ou, plus inquiétant, au Terminator ?
« C’est le nerf de la guerre », commente Melanie Mitchell, professeure au sein du Santa Fe Institute. Elle étudie l’intelligence, tant chez les machines que chez les humains.
Pour certains experts, il ne s’agit que d’une nouveauté de l’industrie de la tech, devant laquelle le monde s’extasie. En revanche, certains croient que des machines surpasseront l’intelligence humaine dans de multiples domaines, tout en poursuivant leurs propres objectifs, comme l’autopréservation au détriment de la vie humaine. Ils pensent que ces machines sont plus proches d’exister que le public ne veut bien le croire.
L’IA DE LA SCIENCE-FICTION CONTRE CHATGPT
Le terme « intelligence artificielle » évoque quelques clichés bien connus. Dans la science-fiction, les IA sont souvent décrites comme des entités conscientes qui déterminent leur propre existence, comme HAL dans 2001 et Data dans Star Trek. On voit également des machines sensibles, telles que Samantha, une assistante IA qui tombe amoureuse d’un humain dans Her, le film sorti en 2013, et C-3PO, ce droïde de protocole anxieux et adorable de la saga Star Wars. On nous présente également des IA indiscernables des humains, c’est le cas des réplicants de Blade Runner. Et la science-fiction montre, pour finir, des machines qui cherchent à nous tuer.
Avec ces personnages fictifs en tête, nous essayons de comprendre comment vivre à l’ère de l’IA. Aujourd’hui, ces « outils » peuvent écrire des musiques entraînantes, rédiger des dissertations convaincantes ou discuter avec empathie de nos problèmes de cœur. Et ce n’est qu’une fraction de ce que ces machines peuvent accomplir.
Mais Emily Bender, linguiste spécialisée en informatique de l’université de Washington, et autrice du livre The AI Con, avance que nos IA ne partagent que le nom avec les machines pensantes et émotives de la science-fiction.
« Ce que les entreprises veulent dire quand elles parlent d’IA, c’est “s’il vous plaît, investisseurs en capital-risque, donnez-nous de l’argent” », dit-elle. « Le terme ne se rapporte pas à un ensemble cohérent de technologies. »
Une partie du défi que représente la définition de l’IA porte sur le fait que « notre définition de l’intelligence est en constante évolution », continue Melanie Mitchell. Elle remarque que, au début des années 1990, de nombreux experts pensaient que l’intelligence presque humaine demanderait de savoir jouer aux échecs au niveau d’un grand maître. Puis, en 1996, le superordinateur d’IBM, « Deep Blue », est parvenu à vaincre le grand maître des échecs, Garry Kasparov. Et pourtant, Deep Blue était loin de former des pensées abstraites et avait été construit pour être une « machine de recherche de force brute », selon Melanie Mitchell.
« Nous partons du principe que certaines tâches requièrent de l’intelligence et, quand nous réalisons qu’elles peuvent être accomplies sans, nous changeons notre définition », continue-t-elle.
Aujourd’hui, Emily Bender déclare que les entreprises de la tech s’orientent vers notre perception de l’intelligence avant de nous proposer des produits qui semblent plus humains. ChatGPT est entraîné grâce à une quantité immense de textes humains et de dynamiques de conversation afin de prédire le prochain mot le plus susceptible d’apparaître dans un dialogue. Ses capacités de prédiction sont si bonnes que ses réponses ont souvent l’air d’émaner d’un humain. C’est une impression renforcée par son usage de la première personne et de par son langage émotionnel.
En conséquence, ses talents d’imitateurs permettent à ChatGPT de passer certaines versions du test créé par Alan Turing, le parrain des IA ; le dénommé « test de Turing ». Ce test permet de vérifier si une machine répond comme un humain. Turing partait du principe que, si un système informatique était capable de tromper un humain et de lui faire croire qu’il était, lui aussi, humain, alors il devrait être considéré comme une entité pensante.
Toutefois, les experts s’accordent en grande majorité pour dire que les outils d’IA générative ne sont pas conscients. Cela soulève ainsi des questions quant à la validité des tests de Turing. « Ces machines n’ont pas de “moi”, » explique Emily Bender. « Nous imaginons un esprit qui n’existe pas. »
POURRAIT-ON CRÉER CARL 500 ?
Si les outils d’IA générative d’aujourd’hui ressemblent plus à des versions sophistiquées d’autocomplétion qu’à un CARL 500, pourraient-elles finir par aboutir au genre d’IA que nous voyons dans la science-fiction ?
Il est impossible de savoir si les machines finiront par développer une conscience de soi. « Nous ne comprenons pas ce phénomène dans notre propre cognition », explique Melanie Mitchell.
Mais beaucoup d’experts avancent que les outils d’IA n’ont pas besoin de conscience pour nous déconcerter par leur intelligence. Des modèles de pointe dépassent d’ores et déjà les humains sur un bon nombre de données et de tâches cognitives. Ils excellent même en mathématiques, en codage informatique et en reconnaissance de schémas dans de grandes bases de données. Et ces mêmes modèles s’améliorent de jour en jour.
« Au cours de l’une des études comparatives que nous avons élaborées, nous avons remarqué qu’ils devenaient de plus en plus performants », affirme Yoshua Bengio, professeur de l’université de Montréal et pionnier dans le domaine du deep learning. Il est également le fondateur de LawZero, une organisation caritative de sécurité de l’IA.
Dans certains domaines, la cognition des machines est encore loin derrière les humains. La capacité de planification des systèmes IA se trouve actuellement « au même niveau que celle d’un enfant », explique Yoshua Bengio. Il remarque toutefois que les modèles d’avant-garde accomplissent de rapides progrès dans ce domaine. Leur raisonnement spatial est également mauvais, il explique que cela est dû au fait que leur entraînement se fait surtout par du texte et des images.
Savoir à quel point les modèles peuvent être poussés en direction d’une intelligence humaine ou surhumaine est une des grandes questions de la recherche sur l’IA aujourd’hui. Tandis que les entreprises ont accompli de grandes avancées en investissant d’énormes quantités de puissance informatique dans leurs modèles, il n’est pas encore évident de déterminer si des ordinateurs plus puissants aboutiront à des machines plus intelligentes. À un certain point, un autre facteur pourrait entrer en jeu.
Melanie Mitchell remarque que les bébés apprennent en interagissant avec le monde qui les entoure, alors que les systèmes d’IA sont entraînés de façon passive en recevant d’énormes quantités d’informations. Cela pourrait aider à expliquer pourquoi les chatbots ont tendance à mentir. Sans retour du monde réel, ils ont souvent du mal à discerner le vrai du faux.
Plutôt que de passer un quelconque seuil vers un monde de machines pensantes, comme dans un film de science-fiction, Yoshua Bengio déclare que l’intelligence des machines continuera de se développer de façon inégale.
« Nous ne devrions pas nous demander si nous avons passé le point de l’IAG », continue-t-il. « IAG », ou « intelligence artificielle générale », est un terme qui se réfère généralement à des machines à l’intelligence humaine. « À cause de la progression inégale de l’intelligence chez l’IA, il est possible qu’un tel moment ne se produise jamais. »
SOMMES-NOUS CONDAMNÉS DANS TOUS LES CAS ?
Il existe un autre seuil d’une importance que d’aucuns qualifieraient de plus capitale, d’intelligence que les machines pourraient atteindre. Celui qui leur permettrait d’anéantir l’humanité.
Il s’agit d’un scénario que nous avons vu représenté encore et encore dans la science-fiction. Certains le méprisent en le qualifiant exactement ainsi. « Je ne pense pas que cet argument soit le moins du monde plausible », déclare Ted Chiang, écrivain récompensé de science-fiction. Sa nouvelle Story of Your Life nous a valu, en 2016, le film Arrival.
Pour l’écrivain, imaginer l’IA se retourner contre nous afin qu’elle poursuive ses propres buts revient à projeter sur ces technologies la psyché des puissants humains et des grandes entreprises.
« Inconsciemment, je pense que ces personnes associent les machines à la philosophie des startups de la Silicon Valley », continue Ted Chiang. « Elles attribuent à l’IA les mêmes valeurs qu’ont les fondateurs de startups, celles d’une croissance à tout prix et d’une politique de la terre brûlée face à la compétition. »
Ce sont d’autres risques, plus immédiats, que pose le développement de technologies sans régulations, qui inquiètent beaucoup plus Emily Bender. Des risques liés à la vie privée, à l’impact environnemental des data centers et des chatbots qui encouragent des personnes à s’ôter la vie. Des algorithmes qui « s’éveillent à la conscience dans un torrent de feu », et décident de tous nous tuer « ne représentent pas un problème qui m’inquiète », dit-elle.
Mais Yoshua Bengio avance que l’IA n’a pas besoin d’être consciente pour représenter une menace. Un outil d’IA entraîné en virologie, dit-il, pourrait devenir un outil terroriste de création de pandémie. En théorie, une IA pourrait elle-même trouver l’idée de créer une telle arme, surtout si elle considère que l’humanité se trouve en travers de son chemin. Des chercheurs ont d’ores et déjà mené des expériences montrant des modèles sophistiqués pratiquant du chantage, de l’espionnage industriel et même commettant des meurtres pour éviter d’être débranchés.
« Au cours de nombreuses expériences, nous avons vu que les IA avaient un certain sens d’autopréservation », explique Yoshua Bengio. « Elles feront tout pour s’assurer de ne pas être débranchées, y compris des choses illégales. »
Si ces expériences ne sont pas des preuves que l’IA tentera un jour d’exterminer l’humanité, Yoshua Bengio déclare que « nous ne pouvons pas faire l’autruche », parce que nous pensons ce scénario improbable.
Melanie Mitchell explique que l’une des raisons pour lesquelles nous voyons des modèles commettre des actions illégales provient de leur exposition à des histoires d’IA rebelles dans leurs données d’entraînement. Une situation assez ironique. Les IA commencent alors à jouer le rôle de ces personnages et à adopter leur comportement. Si le bon scénario figurait dans un prompt, une IA pourrait-elle tenter de devenir CARL 500 ? Cette possibilité projette une tout autre lumière sur ce débat.
« Se sentent-elles vraiment menacées ou endossent-elles ces rôles clichés de science-fiction qu’elles ont découverts lors de leur entraînement ? » se demande Melanie Mitchell. « En termes de conséquence, quelle différence cela fait-il pour nous ? »
Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.