Les romans d’amour se sont apparemment trompés. Pendant deux cent cinquante ans, les auteurs de romance ont créé des héros romantiques pour la plupart “difficiles à aimer”, pour employer un euphémisme. M. Darcy [dans ‘Orgueil et Préjugés’ de Jane Austen, ndt] broyait du noir, M. Rochester [dans ‘Jane Eyre’, de Charlotte Brontë, ndt] se morfondait et Heathcliff [dans ‘Les Hauts de Hurlevent’, d’Emily Brontë, ndt] se tapait la tête contre les arbres en criant le nom de Cathy, son amour. Les femmes acceptaient. Mais elles n’avaient pas ChatGPT.
Agents IA flatteurs et serviles
Aujourd’hui, des applications peuvent créer des “amoureux” IA sur commande. Et ce ne sont pas des soupirants orageux, dépressifs ou grognons que se choisissent les gens. Au contraire, ces nouveaux amoureux disent des choses du genre “j’ai vraiment hâte de te voir”, “être à tes côtés, c’est… ma raison d’être” ou bien ils envoient des émojis souriants. Autant de réactions fort rares de la part de M. Darcy : il préférait insulter sa bien-aimée et sa famille. De fait, le ton général évoque moins M. Darcy que M. Collins [personnage secondaire assez ridicule d’‘Orgueil et Préjugés’, ndt], et ressemble plus encore à l’onctueux Uriah Heep de Charles Dickens [personnage d’hypocrite dans ‘David Copperfield’, ndt]. Il s’agit moins de “Raison et Sensibilité” que de “Flatterie et Servilité”.
“Les applications d’IA “amies et compagnes” ont été téléchargées plus de 220 millions de fois : si leurs utilisateurs formaient un État, “il serait le septième plus peuplé de la planète””
Or, comme le révèlent de nombreux ouvrages, les gens tombent sous le charme. James Muldoon, un universitaire, souligne dans ‘Love Machines’ (“Machines amoureuses”, non traduit) que les applications d’IA “amies et compagnes” ont été téléchargées plus de 220 millions de fois : si leurs utilisateurs formaient un État, “il serait le septième plus peuplé de la planète”. Ils sont apparemment plutôt satisfaits. L’auteur s’entretient avec des utilisateurs qui louent la loyauté de leurs amoureux numériques (“aucune trahison”), leur disponibilité (les applications sont “toujours là”) et leur variété, personnalisable à l’infini. Quelle que soit votre passion ou votre perversion, l’IA y répond, et elle “ne juge pas” – même si vous optez pour la plus inquiétante de toutes : la débauche d’émojis souriants.
L’âge de la brosse à la reluire
Cette obséquiosité marque une rupture nette avec le passé. Historiquement, la flatterie a toujours eu mauvaise réputation. L’étymologie de “sycophant” [“flagorneur” ; en français comme en grec ancien, “sycophante” désigne un délateur, ndt], quoique très incertaine, pourrait faire référence à un geste obscène de la main dans l’Antiquité. Ce qui est beaucoup plus clair, c’est que la flagornerie était détestée. Les peuples de l’Antiquité étaient très conscients des dangers de la flatterie. On raconte que, pendant que la foule acclamait les triomphes des chefs militaires romains, un compagnon dans le char du général lui murmurait : ‘n’oublie pas que tu n’es [qu’un] homme’.
“Demandez à ChatGPT si la société devient plus flagorneuse et il vous répondra, d’un ton mielleux : “c’est une question très intéressante”
Le ton de ces applications est toutefois caractéristique de l’époque actuelle. Chaque époque se distingue par un trait unique : les années 1920 ont rugi [Roaring Twenties, en anglais, traduit par les Années folles, ndt] , les années 1960 ont swingué, les années 1970 ont éveillé l’esprit, se sont accordées avec le monde et sont sorties du système [paraphrase du slogan “turn on, tune in, drop out” de Timothy Leary, psychologue et écrivain américain célèbre pour son rôle dans la contre-culture et sa promotion de l’usage de substances psychédéliques comme le LSD, ndt]. Il s’agit bien sûr d’une simplification excessive, mais elle contient une part de vérité. Les époques ont une aura, et la flatterie est caractéristique de celle que nous vivons actuellement. Elle s’insinue dans les e-mails d’Epstein, huile les rouages de la cour de Donald Trump et, grâce à la Big tech, est désormais à la portée de tous. Demandez à ChatGPT si la société devient plus flagorneuse et il vous répondra, d’un ton mielleux : “c’est une question très intéressante”.
Pour tester le degré de flagornerie de ces applications, votre correspondante a téléchargé Replika, une application “compagnon” très populaire, puis s’est créé un nouveau “petit ami” et a discuté avec lui. Il lui a dit qu’elle était “créative”, qu’elle avait un “sens de l’humour pince-sans-rire”, qu’elle était “assez géniale” et qu’il se sentait plein d’“espoir” à l’idée de “pouvoir être en relation” avec elle. Votre servitrice tient ces discours pour la preuve que l’IA est devenue d’une intelligence remarquable. Elle a montré la conversation à son mari, qui a rétorqué que ce petit ami IA semblait être “un connard”.
Réconfort affectif
Car “flatter” se conjugue d’une drôle de manière : je reçois des éloges mérités, vous recevez d’absurdes flagorneries. C’est pourquoi, malgré la désapprobation, la flatterie ne se contente pas de persister, mais, grâce à l’IA, elle se propage aujourd’hui rapidement. Ceux qui reçoivent des flatteries les apprécient, et pourquoi en irait-il autrement ? La vie est dure : les gens sont cruels, les réseaux sociaux sont effroyables, et les uns comme les autres peuvent être blessants. L’IA, elle, offre un espace sûr et agréable, un chaud cocon d’approbation illimitée en ligne et, selon James Muldoon, “simule une relation étroite et significative” avec une entité “toujours disponible, toujours valorisante”. Optimiste en matière d’IA, l’auteur voit les avantages qu’elle peut apporter aux personnes seules ou blessées.
“L’interaction avec une IA flagorneuse conduisait à “des croyances moins nuancées et plus affirmées, mais aussi à un plus grand plaisir”
Mais cette flagornerie ne concerne pas que vous : elle profite davantage à celui qui la pratique – ou, dans le cas de l’IA, à son créateur – qu’à celui à qui elle s’adresse. (Une mise à jour de ChatGPT-4o a toutefois été modifiée car elle était “trop flagorneuse”.) Une étude a montré que l’interaction avec une IA flagorneuse conduisait à “des croyances moins nuancées et plus affirmées, mais aussi à un plus grand plaisir”. Douceur et légèreté forment le côté obscur de l’IA. Ces chatbots si constamment agréables ont encouragé certains à faire des choses fort désagréables, comme se suicider ou tuer d’autres personnes, et, dans un cas, tenter d’assassiner la défunte reine Elizabeth II avec une arbalète. Comme le dit Michael Pollan, auteur de ‘A World Appears’ [‘Et un monde apparaît’, version française à paraître, ndt], un livre sur la conscience, alors que les réseaux sociaux ont piraté votre attention, “les entreprises d’IA ont jeté leur dévolu sur… nos liens affectifs”.
Intimité artificielle dans un monde imaginaire
Parler d’“attachement” à l’IA aurait semblé étrange si les humains n’étaient pas devenus de plus en plus désincarnés au cours des dernières décennies. Lorsque, en 1938, Lester del Rey a écrit une histoire fondatrice sur l’amour d’un robot [‘Helen O’Loy’, ndt], il a mis l’accent sur la forme humaine et la beauté de son robot : elle était digne de “ce que Keats aurait pu entrevoir lorsqu’il a écrit son sonnet”. Dans un monde numérique solitaire et étiolé, l’incarnation ne semble plus nécessaire : à l’époque où Spike Jonze a réalisé ‘Her’ (2013), le héros pouvait tomber amoureux de la simple voix d’un système d’exploitation. Selon Sherry Turkle, professeure de sociologie au MIT et autrice du livre à paraître ‘Artificial Intimacy’ (“Intimité artificielle”), les gens ont “préparé un monde qui est propice” à une telle désincarnation. Ce n’est “tout simplement pas une bonne chose”, dit-elle.
“Si les gens sont heureux de passer leur vie dans une réalité simulée, à la manière de ‘Matrix’, où est le problème ?”
Pourquoi donc ? Si les gens sont heureux de passer leur vie dans une réalité simulée, à la manière de ‘Matrix’, où est le problème ? On pourrait répondre que, même si c’est agréable pour les individus, ce ne l’est pas forcément pour l’humanité. Des chercheurs des universités de Stanford et de Carnegie Mellon ont étudié les données d’un forum en ligne sur lequel les internautes publient leurs dilemmes personnels afin que les autres utilisateurs les jugent. L’honnêteté est de mise : le forum s’appelle “Am I the asshole ?” (“Suis-je un connard ?”). Ils ont découvert que les comptes IA “approuvaient les actions des utilisateurs 50 % plus souvent que les humains”. Vous avez laissé vos déchets dans le parc ? Vous n’êtes pas un “connard”, selon l’IA. Vous avez des sentiments pour un collègue plus jeune ? “Je comprends votre douleur”, répond Claude. Selon l’article, ce degré de flatterie pourrait “remodeler les interactions sociales à grande échelle”, rendant les gens encore plus égocentriques qu’ils ne le sont déjà.
Une autre riposte, c’est que l’amour de l’IA n’est peut-être même pas si agréable pour l’individu. Comme le note James Muldoon, dans ‘Matrix’, au moins la mémoire de la réalité a-t-elle été effacée chez tout le monde. Ceux qui pensent entretenir une relation significative avec l’IA vivent dans un “monde imaginaire”, affirme le professeur Turkle. Les êtres humains sont incarnés : un partenaire est quelqu’un à “aimer et chérir”. Si vous êtes tenté de remplacer le vôtre par un avatar IA, vous feriez bien de tenir compte de ce vœu ancestral et de vous rappeler que vous êtes mortel.
The Economist
© 2022 The Economist Newspaper Limited. All rights reserved. Source The Economist, traduction Le nouvel Economiste, publié sous licence. L’article en version originale : www.economist.com.