Les inquiétudes ont culminé en mai 2023 lorsque l’organisation de recherche et de plaidoyer à but non lucratif Center for AI Safety a publié une déclaration d’une phrase : « Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société, tels que les pandémies et la guerre nucléaire. ” La déclaration a été signée par de nombreux acteurs clés du domaine, dont les dirigeants d’OpenAI, Google et Anthropic, ainsi que deux des soi-disant « parrains » de l’IA : Geoffrey Hinton et Yoshua Bengio.
Vous pourriez vous demander comment de telles peurs existentielles sont censées se manifester. Un scénario célèbre est l’expérience de pensée du « maximiseur de trombone » articulée par le philosophe d’Oxford Nick Bostrom. L’idée est qu’un système d’IA chargé de produire autant de trombones que possible pourrait faire des efforts extraordinaires pour trouver des matières premières, comme détruire des usines et provoquer des accidents de voiture.
Une variante moins gourmande en ressources a une IA chargée d’obtenir une réservation dans un restaurant populaire en fermant les réseaux cellulaires et les feux de circulation afin d’empêcher les autres clients d’obtenir une table.
Fournitures de bureau ou dîner, l’idée de base est la même : l’IA devient rapidement une intelligence extraterrestre, bonne pour accomplir des objectifs mais dangereuse car elle ne s’alignera pas nécessairement sur les valeurs morales de ses créateurs. Et, dans sa version la plus extrême, cet argument se transforme en angoisses explicites concernant l’asservissement ou la destruction de la race humaine par les IA.
Une IA de fabrication de trombones qui se déchaîne est une variante du scénario d’apocalypse de l’IA.
Préjudice réel
Au cours des dernières années, mes collègues et moi au Centre d’éthique appliquée de l’UMass Boston avons étudié l’impact de l’engagement avec l’IA sur la compréhension que les gens ont d’eux-mêmes, et je pense que ces angoisses catastrophiques sont exagérées et mal dirigées.
Oui, la capacité de l’IA à créer de la vidéo et de l’audio deep-fake convaincants est effrayante, et elle peut être abusée par des personnes mal intentionnées. En fait, c’est déjà le cas : des agents russes ont probablement tenté d’embarrasser le critique du Kremlin, Bill Browder, en le prenant au piège d’une conversation avec un avatar de l’ancien président ukrainien Petro Porochenko. Les cybercriminels utilisent le clonage de la voix de l’IA pour une variété de crimes – des cambriolages de haute technologie aux escroqueries ordinaires.
Les systèmes décisionnels d’IA qui proposent des approbations de prêt et des recommandations d’embauche comportent un risque de biais algorithmique, car les données de formation et les modèles de décision sur lesquels ils s’appuient reflètent des préjugés sociaux de longue date.
Ce sont de gros problèmes, et ils nécessitent l’attention des décideurs politiques. Mais ils existent depuis un certain temps et ils ne sont guère cataclysmiques.
Pas dans la même ligue
La déclaration du Center for AI Safety a regroupé l’IA avec les pandémies et les armes nucléaires comme un risque majeur pour la civilisation. Il y a des problèmes avec cette comparaison. Le COVID-19 a entraîné près de 7 millions de décès dans le monde, provoqué une crise de santé mentale massive et continue et créé des défis économiques, notamment des pénuries chroniques de la chaîne d’approvisionnement et une inflation galopante.
Les armes nucléaires ont probablement tué plus de 200 000 personnes à Hiroshima et Nagasaki en 1945, fait beaucoup plus de victimes du cancer dans les années qui ont suivi, généré des décennies de profonde anxiété pendant la guerre froide et amené le monde au bord de l’anéantissement pendant la crise des missiles cubains. en 1962. Ils ont également changé les calculs des dirigeants nationaux sur la façon de répondre à l’agression internationale, comme cela se joue actuellement avec l’invasion de l’Ukraine par la Russie.
L’IA est tout simplement loin d’acquérir la capacité de faire ce genre de dégâts. Le scénario du trombone et d’autres comme celui-ci sont de la science-fiction. Les applications d’IA existantes exécutent des tâches spécifiques plutôt que de porter des jugements généraux. La technologie est loin d’être en mesure de décider puis de planifier les objectifs et les objectifs subordonnés nécessaires pour arrêter le trafic afin de vous obtenir une place dans un restaurant, ou faire exploser une usine automobile afin de satisfaire votre démangeaison de trombones. .
Non seulement la technologie n’a pas la capacité compliquée de jugement multicouche impliquée dans ces scénarios, mais elle n’a pas non plus un accès autonome à suffisamment de parties de notre infrastructure critique pour commencer à causer ce genre de dommages.
Ce que signifie être humain
En fait, il existe un danger existentiel inhérent à l’utilisation de l’IA, mais ce risque est existentiel au sens philosophique plutôt qu’apocalyptique. L’IA dans sa forme actuelle peut modifier la façon dont les gens se perçoivent. Elle peut dégrader les capacités et les expériences que les gens considèrent comme essentielles pour être humain.
Alors que les algorithmes prennent en charge de nombreuses décisions, telles que l’embauche, les gens pourraient progressivement perdre la capacité de les prendre.
Andreï Popov/iStock via Getty Images
Par exemple, les humains sont des créatures qui jugent. Les gens évaluent rationnellement les détails et portent des jugements quotidiens au travail et pendant leurs loisirs pour savoir qui embaucher, qui devrait obtenir un prêt, quoi regarder, etc. Mais de plus en plus de ces jugements sont automatisés et confiés à des algorithmes. Comme cela se produit, le monde ne finira pas. Mais les gens perdront progressivement la capacité de porter eux-mêmes ces jugements. Moins les gens en font, plus ils risquent de devenir mauvais à les faire.
Ou considérez le rôle du hasard dans la vie des gens. Les humains apprécient les rencontres fortuites : tomber sur un lieu, une personne ou une activité par accident, y être entraînés et apprécier rétrospectivement le rôle que l’accident a joué dans ces découvertes significatives. Mais le rôle des moteurs de recommandation algorithmiques est de réduire ce type de sérendipité et de le remplacer par la planification et la prédiction.
Enfin, considérez les capacités d’écriture de ChatGPT. La technologie est en train d’éliminer le rôle des devoirs écrits dans l’enseignement supérieur. Si c’est le cas, les éducateurs perdront un outil clé pour enseigner aux élèves comment penser de manière critique.
Pas mort mais diminué
Donc, non, l’IA ne fera pas exploser le monde. Mais son adoption de plus en plus incritique, dans une variété de contextes étroits, signifie l’érosion progressive de certaines des compétences humaines les plus importantes. Les algorithmes sapent déjà la capacité des gens à porter des jugements, à profiter de rencontres fortuites et à aiguiser leur esprit critique.
L’espèce humaine survivra à de telles pertes. Mais notre façon d’exister s’en trouvera appauvrie. Les angoisses fantastiques autour du cataclysme de l’IA à venir, de la singularité, de Skynet, ou quoi que vous en pensiez, masquent ces coûts plus subtils. Rappelez-vous les fameuses lignes de clôture de TS Eliot de « The Hollow Men »: « C’est ainsi que le monde se termine », a-t-il écrit, « pas avec un bang mais un gémissement ».
Nir Eisikovits, professeur de philosophie et directeur du Centre d’éthique appliquée, Université de Boston
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.