Il est certainement temps de mettre à jour la célèbre caricature de Peter Steiner sur Internet, publiée pour la première fois en juillet 1993 dans ‘The New Yorker’. “Sur Internet, personne ne sait que vous êtes un chien”, dit un chien assis à un bureau, la patte posée sur un clavier d’ordinateur, à un ami canin assis en dessous.
Cette caricature, qui mettait en évidence l’anonymat transgressif de l’Internet naissant, est devenue la plus reproduite de l’histoire du magazine, réapparaissant dans des livres, sur des tasses et sur des T-shirts, et inspirant même une pièce de théâtre. L’original a été vendu 175 000 dollars aux enchères en 2023.
Explosion de chatbots
Mais aujourd’hui, grâce à l’adoption généralisée de l’intelligence artificielle (IA), Peter Steiner devrait remplacer son chien animé par un robot inanimé, ce qui représente un challenge graphique bien plus difficile à relever. Sur Internet, il est devenu presque impossible de savoir si l’on interagit avec un être humain réel ou avec une entité synthétique alimentée par le chatbot d’une IA, tel ChatGPT d’OpenAI. Nous vivons de plus en plus dans un monde en ligne où personne ne sait que vous êtes un robot.
Les robots aident déjà des millions d’utilisateurs à travers le monde à accomplir une multitude de tâches utiles : répondre en temps réel aux demandes des clients, rédiger des e-mails marketing dans des langues étrangères, permettre aux programmeurs novices de coder des sites web “au ressenti” [le “vibe coding” consiste à passer par une IA ; en réponse au prompt choisi, elle produit un programme que l’on contrôle, ndt], aider les enseignants à construire leurs plans de cours et les élèves à faire des recherches pour leurs dissertations puis à les rédiger, créer des avatars réalistes pour lire les résultats de cricket dans les 22 langues officielles de l’Inde.
“Sur Internet, il est devenu presque impossible de savoir si l’on interagit avec un être humain réel ou avec une entité synthétique alimentée par le chatbot d’une IA, tel ChatGPT d’OpenAI”
Chacun peut constater les avantages de cette technologie et en profiter. Mais il faut également tenir compte de certains de ses inconvénients plus insidieux.
Depuis son lancement en novembre 2022, ChatGPT est devenu l’un des services numériques à la croissance la plus rapide de l’histoire. Il est actuellement utilisé par 700 millions de personnes chaque semaine. Le zélé directeur général de l’entreprise, Sam Altman, souligne qu’OpenAI n’en est qu’à ses débuts, et il a récemment lancé un nouveau grand modèle de langage (LLM) puissant, GPT-5, qui a toutefois reçu un accueil mitigé. “D’après nos projections de croissance, très bientôt, des milliards de personnes communiqueront chaque jour avec ChatGPT, a-t-il récemment déclaré aux journalistes. À un moment donné, ChatGPT tiendra peut-être plus de conversations que [ne représentent] toutes les paroles humaines réunies.”
Promesses de Renaissance
Pour les apôtres de la technologie comme Sam Altman, cette perspective est alléchante. La diffusion plus rapide de l’IA pourrait conduire à une explosion des connaissances, comparable à une nouvelle Renaissance, inaugurant une ère de productivité et d’abondance économique considérablement accrues. Bientôt, nous aurons tous notre propre assistant numérique personnel doté d’une IA, qui agira en tant qu’agent pour réserver nos vacances, préparer nos cours ou remplir nos déclarations d’impôts.
“La diffusion plus rapide de l’IA pourrait conduire à une explosion des connaissances, comparable à une nouvelle Renaissance, inaugurant une ère de productivité et d’abondance économique considérablement accrues”
Dans cette optique, l’IA deviendra notre nouvelle interface avec le monde numérique, disponible sur tous les appareils que nous utilisons, dont certains restent à inventer. Une entreprise californienne appelée Curio intègre même des chatbots dans des peluches pour parler avec des enfants dès l’âge de 3 ans. L’idée est que ses jouets, nommés Grem, Grok et Gabbo, aident les enfants à se détacher des divertissements sur écran. Mais ils risquent également conduire à une nouvelle source de dépendance chez les enfants et d’anxiété chez les parents.
À l’avenir, la plupart des gens auront des “amis IA”, a récemment déclaré au ‘Financial Times’ Karandeep Anand, directeur général de la société de chatbots Character.ai, qui annonce “voir un monde très utopique où l’IA nous rend meilleurs”.
Fausses personnes, vrais dangers
Mais d’autres craignent que la dernière transformation technologique ne conduise l’humanité vers des horizons plus sombres et ne déclenche une explosion de contenus vides de sens générés par l’IA.
Yuval Noah Harari, futurologue et auteur à succès, a fait valoir que l’IA serait mieux décrite en parlant d’“intelligence extraterrestre”, une forme d’intelligence nouvelle et différente que nous ne pouvons ni contrôler ni comprendre pleinement. L’ensemble des connaissances de l’humanité pourraient être un jour prises en otage par cette intelligence extraterrestre et manipulée de telle sorte que se dégraderait notre compréhension humaine du monde.
“La création de fausses personnes numériques risque de détruire notre civilisation. La démocratie dépend du consentement éclairé (et non mal informé) des gouvernés”
C’est un thème qui trouve également écho chez d’autres penseurs. Peu avant sa mort l’année dernière, le grand philosophe Daniel Dennett mettait en garde contre les entreprises qui utilisent l’IA pour créer des “contrefaçons de personnes” (des fausses personnes), commettant ainsi un acte de vandalisme et devant être tenues pour responsables. “Ces contrefaçons de personnes sont les artefacts les plus dangereux de l’histoire de l’humanité, capables de détruire non seulement les économies, mais aussi la liberté humaine elle-même, écrivait-il dans le magazine ‘The Atlantic’. La création de fausses personnes numériques risque de détruire notre civilisation. La démocratie dépend du consentement éclairé (et non mal informé) des gouvernés.”
Les criminels ont également saisi l’opportunité d’utiliser des bots pour tromper des victimes sans méfiance et se servent de voix clonées et de faux avatars pour dérober de l’argent. Les outils d’IA confèrent aux criminels de nouveaux superpouvoirs et augmentent notre propre vulnérabilité, car nous dépendons de plus en plus de milliards d’appareils connectés alimentés par l’IA. Certains experts en sécurité avertissent que nous entrons rapidement dans un monde en ligne dans lequel notre hypothèse par défaut devra être inversée : nous devrons considérer chaque interlocuteur numérique comme un faux être humain, sauf preuve du contraire.
“Vérifier l’identité en ligne d’une personne est l’un des défis les plus difficiles à relever de notre époque”
Vérifier l’identité en ligne d’une personne est l’un des défis les plus difficiles à relever de notre époque, selon Andrew Bud, fondateur de la société d’authentification en ligne iProov. “L’intégrité d’Internet nécessite de savoir comment différencier les personnes réelles et les fausses personnes. C’est un problème ardu, car avec l’IA, cela ne s’arrête jamais, explique-t-il. C’est comme un système biologique. Vous évoluez continuellement dans un jeu dynamique où les attaquants ont un taux d’évolution élevé. Vous devez évoluer plus vite qu’eux.”
Retour à l’ère des superstitions
Andrew Bud souscrit sans hésiter à l’idée que l’IA pourrait être l’un des moteurs de productivité et de progrès économique les plus importants de l’histoire. Mais il craint également que son utilisation aveugle ne soit “le plus grand revers pour l’entendement humain depuis le siècle des Lumières”.
Les modèles d’IA générative qui font fonctionner les chatbots les plus couramment utilisés sont des machines probabilistes qui génèrent la réponse la plus plausible, et non la plus précise. Ils fonctionnent par corrélation statistique plutôt que par observation empirique. Ces systèmes de type “boîte noire” ont également une tendance bien connue à halluciner – ou inventer – des faits. “Le siècle des Lumières se fondait entièrement sur l’explicable et le rationnel. L’IA présente une lacune d’explicabilité qui nous ramène à l’ère de la superstition”, explique Andrew Bud.
“Le siècle des Lumières se fondait entièrement sur l’explicable et le rationnel. L’IA présente une lacune d’explicabilité qui nous ramène à l’ère de la superstition”
La tendance des modèles d’IA générative à halluciner peut être l’une de leurs caractéristiques les plus alarmantes. Mais c’est aussi une caractéristique qu’il est possible, selon les entreprises d’IA, d’atténuer en modifiant leurs algorithmes. Dans un récent article de recherche, les chercheurs d’OpenAI ont suggéré que les LLM hallucinent parce qu’ils ont été entraînés à valoriser les suppositions plutôt qu’à reconnaître leur incertitude, ce qui peut et doit être changé. Les hallucinations sont-elles inévitables ? “Non, car les modèles linguistiques ont la possibilité de s’abstenir s’ils ne sont pas certains [de la réponse”], écrivent ces chercheurs.
Tout comme les humains, les LLM devraient apprendre à dire : “je ne sais tout simplement pas”.
© The Financial Times Limited [2025]. All Rights Reserved. Not to be redistributed, copied or modified in anyway. Le nouvel Economiste is solely responsible for providing this translated content and the Financial Times Limited does not accept any liability for the accuracy or quality of the translation.
Les vérités de l’IA 2/2 - Faut-il réglementer les chatbots ?
Emily Bender, sceptique de l’IA : "Le roi est nu"
Geoffrey Hinton : “Les riches vont utiliser l’IA pour remplacer les travailleurs”
Modèles d'IA générative, les virtuoses du n’importe-quoi
David Chalmers : "D’ici 100 ans, la réalité virtuelle sera indiscernable de la réalité physique"
Pourquoi l’IA peut très vite déraper
L'IA, une "nouvelle sorte de dieu"
Protéger nos données biométriques