Début 2020, deux co-responsables de l’équipe Ethical AI de Google, Timnit Gebru et Margaret Mitchell, se sont associés à plusieurs autres personnes pour un article sur l’intelligence artificielle – dont certains collègues de Google et les professeurs de l’Université de Washington Emily M. Bender et Angelina McMillan -Principal.
Dans cet article, ils ont fait valoir que l’intelligence artificielle (IA) n’était pas sensible, mais ont prédit que d’autres prétendraient qu’elle l’était. Et maintenant, selon Gebru et Mitchell, d’autres font cette affirmation à tort, comme ils l’avaient prédit.
Une personne qui a fait cette affirmation, rapportent Gebru et Mitchell dans un article publié par le Washington Post le 17 juin, est Blake Lemoine, un ingénieur logiciel pour Responsible AI que Google a mis en congé administratif.
« (Lemoine) croyait que le chatbot de Google, LaMDA, était sensible », expliquent Gebru et Mitchell. « ‘Je connais une personne quand je lui parle’, a déclaré Lemoine. Google avait rejeté ses réclamations et, lorsque Lemoine a contacté des experts externes, l’a mis en congé administratif payé pour avoir enfreint la politique de confidentialité de l’entreprise.
Gebru et Mitchell ajoutent: «Mais si cette affirmation semblait fantastique, nous n’étions pas surpris que quelqu’un l’ait faite. C’était exactement ce que nous avions prévenu qu’il se passerait en 2020, peu de temps avant d’être nous-mêmes licenciés par Google. L’affirmation de Lemoine montre que nous avions raison d’être préoccupés – à la fois par la séduction des bots qui simulent la conscience humaine et par la façon dont l’excitation autour d’un tel saut peut détourner l’attention des vrais problèmes inhérents aux projets d’IA.
Gebru et Mitchell notent que LaMDA signifie Language Model for Dialogue Applications, le décrivant comme « un système basé sur de grands modèles de langage (LLM) : des modèles entraînés sur de grandes quantités de données textuelles, généralement récupérées sans discernement sur Internet, dans le but de prédire séquences de mots probables.
Les LLM, ajoutent-ils, « assemblent et reproduisent le langage en fonction de ce qu’ils ont vu auparavant, sans lien avec le sens sous-jacent ».
« L’un des risques que nous avons décrits était que les gens imputent une intention de communication à des choses qui semblent humaines », expliquent Gebru et Mitchell. « Formés sur de grandes quantités de données, les LLM génèrent un texte apparemment cohérent qui peut amener les gens à percevoir un « esprit » alors que ce qu’ils voient vraiment est la correspondance de modèles et la prédiction de chaînes. Cela, combiné au fait que les données de formation – du texte provenant d’Internet – encode des opinions qui peuvent être discriminatoires et exclure de nombreuses populations, signifie que l’intelligence perçue des modèles soulève plus de problèmes que nous ne sommes prêts à résoudre.
Google, selon Gebru et Mitchell, n’était « pas satisfait » de l’article qu’ils ont écrit au début de 2020, et ils ont été « par la suite très publiquement licenciés » par le géant de la technologie. Mais ils s’en tiennent à ce papier.
« Moins de deux ans plus tard », écrivent Gebru et Mitchell, « notre travail n’en est que plus pertinent. La course au déploiement de modèles de plus en plus grands sans garde-corps, réglementation, compréhension de leur fonctionnement ou documentation des données de formation s’est encore accélérée dans les entreprises technologiques.
Gebru et Mitchell préviennent que les entreprises technologiques ont promu l’idée que l’intelligence artificielle possède de véritables « capacités de raisonnement et de compréhension » – ce qui, soulignent-ils, n’est pas le cas.
« Il y a des motifs de profit pour ces récits », écrivent les anciens employés de Google. « Les objectifs déclarés de nombreux chercheurs et sociétés de recherche en IA sont de construire une » intelligence générale artificielle « , un système imaginaire plus intelligent que tout ce que nous avons jamais vu, capable d’accomplir n’importe quelle tâche qu’un humain peut accomplir sans relâche et sans rémunération. Bien qu’un tel système ne se soit pas avéré réalisable, sans parler d’un bien net, les entreprises qui y travaillent amassent et étiquettent déjà de grandes quantités de données – souvent sans consentement éclairé et par le biais de pratiques de travail abusives.
Les entreprises technologiques, affirment Gebru et Mitchell, rendent un énorme mauvais service au public en essayant de convaincre les consommateurs que l’intelligence artificielle peut penser de manière critique de la même manière que les gens pensent de manière critique.
« La volonté d’atteindre cet objectif écarte les nombreux dommages potentiels non résolus des systèmes LLM », écrivent Gebru et Mitchell. « Et attribuer la » sensibilité « à un produit implique que tout acte répréhensible est l’œuvre d’un être indépendant, plutôt que de l’entreprise – composée de personnes réelles et de leurs décisions, et soumise à une réglementation – qui l’a créé. »
Gebru et Mitchell ajoutent : « Nous devons agir maintenant pour empêcher cette distraction et calmer le battage médiatique. Les scientifiques et les ingénieurs devraient se concentrer sur la construction de modèles qui répondent aux besoins des gens pour différentes tâches, et qui peuvent être évalués sur cette base, plutôt que de prétendre qu’ils créent une über intelligence. De même, nous exhortons les médias à se concentrer sur la responsabilisation du pouvoir, plutôt que de tomber dans l’éblouissement de systèmes d’IA apparemment magiques, vantés par des entreprises qui profitent de tromper le public sur ce que sont réellement ces produits.
L’histoire complète continue ici (abonnement requis).