La popularité sans précédent de ChatGPT a turbocompressé la machine à battage médiatique de l’IA. Nous sommes bombardés quotidiennement d’articles de presse annonçant la plus grande invention de l’humanité : l’intelligence artificielle (IA). L’IA est « qualitativement différente », « transformationnelle », « révolutionnaire », « va tout changer », disent-ils. OpenAI, la société derrière ChatGPT, a annoncé une mise à jour majeure de la technologie derrière ChatGPT appelée GPT4. Déjà, les chercheurs de Microsoft affirment que GPT4 montre des « étincelles d’intelligence générale artificielle » ou d’intelligence de type humain – le Saint Graal de la recherche sur l’IA. Des affirmations fantastiques sont faites sur le fait d’atteindre le point de «singularité de l’IA» des machines égalant puis dépassant l’intelligence humaine.
Cet article a été réalisé par Globetrotter.
La presse économique parle de centaines de millions de pertes d’emplois car l’IA remplacerait les humains dans toute une série de professions. D’autres s’inquiètent d’un avenir proche semblable à celui de la science-fiction où l’IA super intelligente devient voyou et détruit ou asservit l’humanité. Ces prédictions sont-elles fondées sur la réalité, ou s’agit-il simplement d’un battage médiatique exagéré que l’industrie de la technologie et la machine à battage médiatique VC sont si douées pour vendre?
La race actuelle de modèles d’IA est basée sur des éléments appelés « réseaux de neurones ». Alors que le terme «neural» évoque des images d’un cerveau artificiel simulé à l’aide de puces informatiques, la réalité de l’IA est que les réseaux neuronaux ne ressemblent en rien au fonctionnement réel du cerveau humain. Ces soi-disant réseaux de neurones n’ont aucune similitude avec le réseau de neurones du cerveau. Cette terminologie a cependant été l’une des principales raisons pour lesquelles les «réseaux de neurones» artificiels sont devenus populaires et largement adoptés malgré leurs graves limites et leurs défauts.
Les algorithmes de « Machine Learning » actuellement utilisés sont une extension des méthodes statistiques qui manquent de justification théorique pour les étendre de cette façon. Les méthodes statistiques traditionnelles ont le mérite de la simplicité. Il est facile de comprendre ce qu’ils font, quand et pourquoi ils travaillent. Ils viennent avec des assurances mathématiques que les résultats de leur analyse sont significatifs, en supposant des conditions très spécifiques. Étant donné que le monde réel est compliqué, ces conditions ne tiennent jamais et, par conséquent, les prévisions statistiques sont rarement exactes. Les économistes, les épidémiologistes et les statisticiens le reconnaissent et utilisent ensuite l’intuition pour appliquer les statistiques afin d’obtenir des conseils approximatifs à des fins spécifiques dans des contextes spécifiques. Ces mises en garde sont souvent ignorées, conduisant à une mauvaise utilisation des méthodes statistiques traditionnelles avec des conséquences parfois catastrophiques, comme lors de la Grande Crise Financière de 2008 ou de l’explosion du LTCM en 1998, qui a failli faire s’effondrer le système financier mondial. Rappelez-vous la célèbre citation de Mark Twain, « Lies, damned lies and Statistics ».
L’apprentissage automatique repose sur l’abandon total de la prudence qui devrait être associée à l’utilisation judicieuse des méthodes statistiques. Le monde réel est désordonné et chaotique et donc impossible à modéliser à l’aide des méthodes statistiques traditionnelles. La réponse du monde de l’IA est donc d’abandonner toute prétention à une justification théorique sur pourquoi et comment ces modèles d’IA, qui sont de plusieurs ordres de grandeur plus compliqués que les méthodes statistiques traditionnelles, devraient fonctionner. L’absence de ces contraintes de principe rend le modèle d’IA « plus puissant ». Ce sont des exercices d’ajustement de courbes élaborés et compliqués qui correspondent empiriquement aux données observées sans que nous comprenions les relations sous-jacentes.
Mais il est également vrai que ces modèles d’IA peuvent parfois faire des choses qu’aucune autre technologie ne peut faire du tout. Certaines sorties sont étonnantes, comme les passages que ChatGPT peut générer ou les images que DALL-E peut créer. C’est fantastique pour épater les gens et créer du battage médiatique. La raison pour laquelle ils fonctionnent « si bien » est la quantité époustouflante de données d’entraînement, suffisante pour couvrir presque tous les textes et images créés par les humains. Même avec cette échelle de données de formation et des milliards de paramètres, les modèles d’IA ne fonctionnent pas spontanément, mais nécessitent des solutions de contournement ad hoc pour produire des résultats souhaitables.
Même avec tous les hacks, les modèles développent souvent de fausses corrélations, c’est-à-dire qu’ils fonctionnent pour de mauvaises raisons. Par exemple, il a été rapporté que de nombreux modèles de vision fonctionnent en exploitant des corrélations relatives à la texture de l’image, à l’arrière-plan, à l’angle de la photographie et à des caractéristiques spécifiques. Ces modèles d’IA de vision donnent alors de mauvais résultats dans des situations non contrôlées. Par exemple, un canapé imprimé léopard serait identifié comme un léopard ; les modèles ne fonctionnent pas lorsqu’une infime quantité de bruit de motif fixe indétectable par l’homme est ajoutée aux images ou que les images sont tournées, par exemple dans le cas d’une voiture à l’envers après un accident. ChatGPT, malgré toute sa prose impressionnante, sa poésie et ses essais, est incapable de faire une simple multiplication de deux grands nombres, ce qu’une calculatrice des années 1970 peut faire facilement.
Les modèles d’IA n’ont aucun niveau de compréhension humaine, mais sont excellents pour imiter et tromper les gens en leur faisant croire qu’ils sont intelligents en reproduisant le vaste trésor de texte qu’ils ont ingéré. Pour cette raison, la linguiste computationnelle Emily Bender a appelé les grands modèles de langage tels que ChatGPT et BART et BERT de Google « perroquets stochastiques » dans un article de 2021. Ses co-auteurs de Google, Timnit Gebru et Margaret Mitchell, ont été invités à retirer leur nom du journal. Lorsqu’ils ont refusé, ils ont été licenciés par Google.
Cette critique n’est pas seulement dirigée contre les grands modèles de langage actuels, mais contre l’ensemble du paradigme consistant à essayer de développer l’intelligence artificielle. Nous ne devenons pas bons dans les choses simplement en lisant à leur sujet, cela vient de la pratique, de voir ce qui fonctionne et ce qui ne fonctionne pas. Cela est vrai même pour les tâches purement intellectuelles telles que la lecture et l’écriture. Même pour les disciplines formelles telles que les mathématiques, on ne peut pas devenir bon en mathématiques sans les pratiquer. Ces modèles d’IA n’ont aucun but en eux-mêmes. Ils ne peuvent donc pas comprendre le sens ou produire des textes ou des images significatifs. De nombreux critiques de l’IA ont fait valoir que la véritable intelligence nécessite des réseaux sociaux « situationnalité.”
Faire des choses physiques dans le monde réel nécessite de gérer la complexité, la non-linéarité et le chaos. Cela implique également pratique en faisant réellement ces choses. C’est pour cette raison que les progrès ont été extrêmement lents en robotique : les robots actuels ne peuvent gérer que des tâches répétitives fixes impliquant des objets rigides identiques, comme dans une chaîne de montage. Même après des années de battage médiatique autour des voitures sans conducteur et de vastes financements pour ses recherches, la conduite entièrement automatisée ne semble toujours pas réalisable dans un avenir proche.
Le développement actuel de l’IA basé sur la détection de corrélations statistiques à l’aide de « réseaux de neurones », qui sont traités comme des boîtes noires, promeut un mythe basé sur la pseudoscience de la création d’intelligence au prix du développement d’une compréhension scientifique de comment et pourquoi ces réseaux fonctionnent. Au lieu de cela, ils mettent l’accent sur des spectacles tels que la création de démos impressionnantes et la notation dans des tests standardisés basés sur des données mémorisées.
Les seuls cas d’utilisation commerciale significatifs des versions actuelles de l’IA sont les publicités : cibler les acheteurs pour les médias sociaux et les plateformes de streaming vidéo. Cela ne nécessite pas le degré élevé de fiabilité exigé des autres solutions d’ingénierie ; ils ont juste besoin d’être « assez bons ». Et les mauvais résultats, tels que la propagation de fausses nouvelles et la création de bulles de filtres haineuses, restent largement impunis.
Peut-être une doublure argentée dans tout cela est-elle, étant donné les sombres perspectives de la singularité de l’IA, la peur que des IA malveillantes super intelligentes détruisent l’humanité est exagérée. Cependant, cela n’est guère réconfortant pour ceux qui reçoivent les « systèmes de décision d’IA ». Nous avons déjà de nombreux exemples de systèmes de décision d’IA dans le monde entier refusant aux personnes des réclamations d’assurance légitimes, des prestations médicales et d’hospitalisation et des prestations sociales de l’État. Les systèmes d’IA aux États-Unis ont été impliqués dans l’emprisonnement de minorités à des peines de prison plus longues. Il y a même eu des rapports de retrait des droits parentaux aux parents des minorités sur la base de fausses corrélations statistiques, qui se résument souvent au fait qu’ils n’ont pas assez d’argent pour nourrir et prendre correctement soin de leurs enfants. Et, bien sûr, sur la promotion du discours de haine sur les réseaux sociaux. Comme l’a écrit le célèbre linguiste Noam Chomsky dans un article récent, « ChatGPT présente quelque chose comme la banalité du mal : le plagiat, l’apathie et l’obviation ».