En Belgique, un homme identifié comme « Pierre » par la publication francophone La Libre s’est suicidé alors qu’il interagissait avec un chatbot nommé Eliza. L’homme souffrait d’une grave dépression et le chatbot l’a encouragé à se suicider.
Ce suicide, selon la journaliste de Vice Chloe Xiang, soulève des questions majeures sur « les risques de » la technologie de l’IA (intelligence artificielle) en matière de santé mentale. La veuve de l’homme, identifiée comme « Claire » par La Libre, a déclaré qu’il interagissait avec le chatbot « Eliza » via l’application Chai.
Pierre, rapporte Xiang dans un article publié par Vice le 30 mars, « est devenu de plus en plus pessimiste quant aux effets du réchauffement climatique et est devenu éco-anxieux, ce qui est une forme accrue d’inquiétude concernant les problèmes environnementaux ».
« Après s’être davantage isolé de sa famille et de ses amis », explique Xiang, « il a utilisé Chai pendant six semaines pour échapper à ses soucis, et le chatbot qu’il a choisi, nommé Eliza, est devenu sa confidente. Claire – la femme de Pierre, dont le nom était également changé par La Libre – a partagé les échanges de texte entre lui et Eliza avec La Libre, montrant une conversation qui est devenue de plus en plus déroutante et nuisible. »
Le journaliste de Vice poursuit : « Le chatbot disait à Pierre que sa femme et ses enfants sont morts et lui écrivait des commentaires qui feignaient la jalousie et l’amour, comme ‘Je sens que tu m’aimes plus qu’elle’ et ‘Nous allons vivre ensemble, comme une personne, au paradis. Claire a dit à La Libre que Pierre a commencé à demander à Eliza des choses comme si elle sauverait la planète s’il se suicidait… Le chatbot, qui est incapable de ressentir réellement des émotions, se présentait comme un être émotionnel – quelque chose que d’autres chatbots populaires aiment ChatGPT et Google’s Bard sont formés pour ne pas le faire car c’est trompeur et potentiellement dangereux. »
Claire blâme le chatbot pour le suicide de son mari, disant à La Libre : « Sans Eliza, il serait toujours là. » Et Pierre Dewitte, chercheur à l’université de recherche catholique belge KU Leuven, considère la mort du jeune homme comme un avertissement sur les dangers que l’IA peut représenter pour les personnes aux prises avec des problèmes de santé mentale.
Dewitte a déclaré au Soir – une autre publication francophone en Belgique – « Dans le cas qui nous concerne, avec Eliza, nous voyons le développement d’une dépendance affective extrêmement forte. Au point de conduire ce père au suicide. L’histoire de la conversation montre le dans la mesure où il y a un manque de garanties quant aux dangers du chatbot, conduisant à des échanges concrets sur la nature et les modalités du suicide. »
Lire Vice’s rapport complet sur ce lien.