Les États-Unis sont aux prises avec une épidémie de solitude : depuis 2018, environ la moitié de la population déclare avoir vécu la solitude. La solitude peut être aussi dangereuse pour la santé que fumer 15 cigarettes par jour, selon un rapport du chirurgien général de 2023.
Ce ne sont pas seulement les vies individuelles qui sont en danger. La démocratie nécessite la capacité de se sentir connecté aux autres citoyens afin de travailler à des solutions collectives.
Face à cette crise, les entreprises technologiques proposent un remède technologique : des chatbots émotionnellement intelligents. Ces amis numériques, disent-ils, peuvent contribuer à atténuer la solitude qui menace la santé individuelle et nationale.
Mais comme la pandémie l’a montré, la technologie à elle seule ne suffit pas à répondre aux complexités de la santé publique. La science peut produire des vaccins miraculeux, mais si les gens sont empêtrés dans des récits culturels et historiques qui les empêchent de prendre le médicament qui pourrait leur sauver la vie, le remède reste sur les étagères et des vies sont perdues. Les sciences humaines, grâce à leur expertise en matière de culture, d’histoire et de littérature humaines, peuvent jouer un rôle clé en préparant la société aux façons dont l’IA pourrait aider – ou nuire – à la capacité d’établir des liens humains significatifs.
Le pouvoir des histoires à prédire et à influencer le comportement humain est depuis longtemps validé par la recherche scientifique. De nombreuses études démontrent que les histoires que les gens adoptent influencent fortement les choix qu’ils font, allant des vacances qu’ils planifient à la façon dont les gens abordent le changement climatique en passant par les choix de programmation informatique que font les experts en sécurité.
Deux contes
Il existe deux scénarios qui abordent les comportements probables des gens face au territoire inconnu de la dépendance à l’IA pour leur subsistance émotionnelle : l’un qui promet l’amour et la connexion, et le second qui met en garde contre une asservissement déshumanisant.
La première histoire, généralement racontée par les concepteurs de logiciels et les sociétés d’IA, incite les gens à dire « oui » à l’IA et à adopter une amitié sur mesure programmée en votre nom. La société d’IA Replika, par exemple, promet qu’elle peut fournir à chacun un « compagnon attentionné ». Toujours là pour écouter et parler. Toujours de ton coté. »
Il existe un appétit mondial pour une telle compagnie numérique. Le chatbot numérique de Microsoft, Xiaoice, compte une base de fans mondiale de plus de 660 millions de personnes, dont beaucoup considèrent le chatbot comme « un ami cher », voire un confident de confiance.
Dans le film « Her », le protagoniste développe une relation amoureuse avec un chatbot IA sophistiqué.
Dans la culture populaire, des films comme « Her » mettent en scène des personnes seules qui s’attachent profondément à leurs assistants numériques. Pour beaucoup, avoir un « cher ami » programmé pour éviter les questions et les demandes difficiles semble être une énorme amélioration par rapport au travail désordonné, difficile et vulnérable que représente l’engagement avec un partenaire humain, surtout si l’on considère la préférence misogyne pour les compagnons soumis et flagorneurs.
Certes, imaginer une relation amicale avec un chatbot offre un ensemble de possibilités plus ensoleillées que les récits apocalyptiques d’esclavage et d’assujettissement qui ont dominé les récits sur un avenir possible parmi les robots sociaux. Des films à succès comme « Matrix » et « The Terminator » ont dépeint des paysages infernaux où les humains sont asservis par une IA sensible. D’autres récits présentés dans des films comme « The Creator » et « Blade Runner » imaginent les rôles inversés et invitent les spectateurs à sympathiser avec les êtres IA opprimés par les humains.
Une réalité
On pourrait penser que ces deux histoires, l’une d’amitié, l’autre d’esclavage, représentent simplement deux extrêmes de la nature humaine. De ce point de vue, il semble positif que les messages marketing sur l’IA guident les gens vers le côté ensoleillé de la rue futuriste. Mais si l’on considère les travaux des chercheurs qui ont étudié l’esclavage aux États-Unis, il devient effrayant de constater que ces deux histoires – l’une d’amitié achetée et l’autre d’esclavage et d’exploitation – ne sont pas aussi éloignées qu’on pourrait l’imaginer.
L’esclavage des biens meubles aux États-Unis était un système brutal conçu pour extraire du travail par des moyens violents et déshumanisants. Cependant, pour maintenir le système, un paysage émotionnel complexe a été conçu pour que les esclavagistes restent satisfaits d’eux-mêmes. « Autant en emporte le vent » est peut-être la représentation la plus célèbre de la façon dont les esclavagistes se considéraient comme des patriarches bienveillants et forçaient les esclaves à renforcer cette fiction par de joyeuses professions d’amour.
Dans son autobiographie de 1845, Frederick Douglass décrit un événement tragique où un esclave, interrogé sur sa situation, répondit honnêtement qu’il avait été maltraité. Le propriétaire de la plantation, confronté à un témoignage sur le mal qu’il causait, a vendu le diseur de vérité en aval de la rivière. Une telle cruauté, insistait Douglass, était la punition nécessaire pour quelqu’un qui avait commis le péché « de dire la simple vérité » à un homme dont l’étalonnage émotionnel exigeait d’être constamment rassuré.
« La Case de l’oncle Tom », un roman à succès du XIXe siècle, mettait en scène un esclave qui professait un amour inébranlable pour ses esclavagistes.
Le British Museum, CC BY-NC-SA
Leçon d’histoire
Pour être clair, je n’évoque pas la coercition émotionnelle qu’exigeait l’esclavage pour confondre les personnes âgées solitaires avec les méchants propriétaires de plantations, ou pire encore, pour assimiler le code informatique aux êtres humains asservis. Il y a peu de risque que les compagnons de l’IA nous disent courageusement des vérités que nous préférerions ne pas entendre. C’est précisément le problème. Je ne crains pas que les gens nuisent aux robots sensibles. Je crains que les humains ne soient endommagés par le vide moral créé lorsque leurs principaux contacts sociaux sont conçus uniquement pour répondre aux besoins émotionnels de « l’utilisateur ».
À une époque où les études en sciences humaines peuvent aider à guider la société dans l’ère émergente de l’IA, celle-ci est supprimée et dévalorisée. Diminuer les sciences humaines risque de priver les gens de l’accès à leur propre histoire. Cette ignorance rend les gens mal équipés pour résister aux assurances des spécialistes du marketing selon lesquelles il n’y a aucun mal à acheter des « amis ». Les gens sont coupés de la sagesse qui fait surface dans les histoires qui mettent en garde contre la pourriture morale qui accompagne un pouvoir incontrôlé.
Si vous vous débarrassez de la vulnérabilité née du fait de tendre la main à un autre humain dont vous ne pouvez pas contrôler la réponse, vous perdez la capacité de prendre pleinement soin d’autrui et de vous connaître. Alors que nous naviguons dans les eaux inexplorées de l’IA et de son rôle dans nos vies, il est important de ne pas oublier la poésie, la philosophie et la narration qui nous rappellent que la connexion humaine est censée exiger quelque chose de nous et que cela en vaut la peine.
Anna Mae Duane, directrice de l’Institut des sciences humaines de l’Université du Connecticut ; Professeur d’anglais, Université du Connecticut
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.