WASHINGTON – Amérique au milieu de c’est première élection alimentée par l’IA. Duper les électeurs en 2024 – une année où les «deepfakes» devraient supplanter notre actuel irréalité politique axée sur les mèmes – sera plus facile que jamais.
Des vidéos fausses mais hyperréalistes de Donald Trump complotant secrètement avec le président russe Vladimir Poutine ou le président Joe Biden dans une conférence secrète de la Maison Blanche avec des militants antifa ? Des discours entièrement faux prononcés par la représentante Marjorie Taylor Greene (R-GA) ou la représentante Ilhan Omar (D-MN) ?
Tout est désormais possible. Il suffit de regarder la vidéo deepfake qui n’aurait pas été possible en 2020 mettant en vedette un gouverneur de Floride généré par ordinateur, Ron DeSantis, qui est décrit comme essayant désespérément de convaincre ses collègues dans « The Office » qu’il ne porte pas de vêtements pour femmes. Donald Trump Jr. fait partie des personnes qui ont l’a partagé sur les réseaux sociaux ces derniers jours.
Parmi les plus mal préparés aux manigances électorales imprégnées d’IA : les membres du Congrès eux-mêmes.
« Je n’en ai pas entendu parler ici », a déclaré le sénateur Josh Hawley (R-MO) à Raw Story lorsqu’on lui a posé des questions sur les deepfakes et l’IA ayant un impact sur l’élection 2024.
Ce n’est pas que le Capitole ne bourdonne pas de bavardages sur la réglementation de l’IA depuis que le PDG d’OpenAI, Sam Altman, a témoigné devant les législateursmardi dernier – y compris dire à Hawley que même lui est «nerveux» sur les grandes plateformes d’apprentissage des langues, telles que ChatGPT de son entreprise, utilisées pour manipuler les électeurs. Le problème : c’était une nouvelle pour beaucoup au Capitole.
C’est pourquoi les experts sont également nerveux, d’autant plus que la technologie de l’IA évolue à une vitesse fulgurante.
Le PDG d’OpenAI, Sam Altman : « Si cette technologie tourne mal, elle peut mal tourner. »Youtube
«Le Congrès aurait dû être proactif hier – il y a des décennies», Woodrow Hartzogprofesseur de droit à l’Université de Boston, a déclaré à Raw Story.
Le Congrès a une tonne de rattrapage à faire, principalement parce que les décideurs américains – à la demande de la Silicon Valleyéquipes de lobbyistes de Washington – ont hésité pendant des années à rédiger des règles pour la route numérique, permettant plus ou moins aux entreprises technologiques de se contrôler elles-mêmes.
«À tout le moins, il doit réfléchir au fait qu’il ne s’agit pas seulement d’un problème de technologie et de deepfakes, que le problème des deepfakes dans notre démocratie est enraciné dans des préoccupations structurelles beaucoup plus larges concernant la responsabilité technologique, généralement mélangées à nos lois entourant vie privée, surveillance, liberté d’expression, droit d’auteur, égalité et anti-discrimination », a poursuivi Hartzog. « Toutes ces zones apparemment disparates – et les fissures qui se sont creusées dans nos protections autour d’elles – font partie de cette histoire. »
Comment dangereux, vraiment?
L’intelligence artificielle offre une grande promesse d’emmener l’humanité vers de nouveaux sommets technologiques.
Mais la possibilité de créer de faux médias de plus en plus réalistes devient également plus facile à la nanoseconde. Ce qui nécessitait auparavant une expertise spécialisée – sans parler des jours et des semaines de temps ; ainsi, le dévouement – uniquement pour concocter des deepfakes maladroits est désormais disponible pour tous. La démocratisation des contrefaçons fait paniquer de nombreux experts.
Il est facile de voir comment les tromperies, la propagande et les escroqueries basées sur l’IA pourraient nuire au statut d’une élection comme véritablement libre et équitable, même si seule une petite fraction des électeurs est affectée.
Considérez que l’élection de 2016 a été décidée par certains 80 000 voix à travers trois États. D’innombrables robots et des agents de renseignement russes se sont impliqués (si Républicains du Sénat sont à croire). Les agents de campagne – nationaux et étrangers, et aussi mauvais qu’ils puissent être – n’ont rien sur les pouvoirs de l’IA (si son créateurs doivent être a cru). Surtout lorsqu’il est combiné avec la technologie deepfake d’aujourd’hui en constante amélioration, la capacité de duper est presque facile.
« Pensez à cela comme à la technologie nucléaire », Siwei Lyu, professeur d’innovation SUNY Empire au Département d’informatique et d’ingénierie de l’Université de Buffalo, a déclaré à Raw Story. « En ce moment, au lieu que le gouvernement américain et quelques gouvernements dans le monde connaissent les techniques de fabrication de bombes atomiques, tout le monde peut désormais disposer d’une boîte à outils d’Amazon pour fabriquer ses propres bombes atomiques. À quel point cela pourrait être dangereux, n’est-ce pas ? »
Lyu a poursuivi: « Bien sûr, quelqu’un peut l’utiliser comme générateur pour alimenter ma maison et je n’ai plus besoin d’être sur le réseau électrique, mais il y a certainement des gens qui en abuseront – et ce sont les choses nous avons très peu de contrôle sur. C’est donc vraiment là que se situe le problème.
La peur de l’élection 2024 n’est pas nécessairement une grande explosion atomique numérique bouleversante ; la peur est que des dizaines, des centaines ou même des milliers de bombes intelligentes personnelles – polies, alimentées et propulsées par une IA générative – soient discrètement larguées sur des populations sensibles à vulnérables dans des États oscillants.
Ils peuvent provenir de sources nationales : par exemple, des super PAC sans scrupules ou des agitateurs politiques solitaires indifférents aux lois et réglementations électorales largement désuètes du pays qui, dans certains cas, n’ont pas été mises à jour depuis l’aube du World Wide Web. Si ce.
Pire encore, ils pourraient provenir d’acteurs étrangers – pensez à la Russie, ou peut-être à l’Iran et à la Corée du Nord – qui ont déjà démontré un appétit insatiable pour semer le chaos lors des élections américaines.
« Les fabricants de deepfakes créeront ces faux médias pour renforcer, renforcer votre croyance, puis l’algorithme de recommandation vous le poussera en tant qu’utilisateur afin que vous commenciez à voir plus de ces choses », a déclaré Lyu.
Tout cela sera guidé par les données privées de millions d’Américains, auxquelles les entreprises de la Silicon Valley ont déjà accès en raison de l’inaction du Congrès. Lorsqu’elle est introduite dans des plates-formes d’IA génératives telles que ChatGPT, la boucle algorithmique de faussetés et de contrefaçons empreintes de peur et de vérité pourrait s’avérer infinie.
« Faut aller vite »
De retour au Capitole, le chef de la majorité au Sénat, Chuck Schumer, fait désormais partie de négociations bipartites – avec les sens. Martin Heinrich (D-NM), Todd Young (R-IN) et Mike Rounds (R-SD) – se sont concentrés sur la législation sur l’intelligence artificielle.
« Nous ne pouvons pas aller si vite que nous élaborons une législation défectueuse, mais il n’y a pas de temps à perdre, à retarder ou à rester assis », a déclaré Schumer. dit à ses collègues au Sénat après le témoignage d’Altman. « Nous devons aller vite. »
Il n’y a qu’une courte fenêtre pour agir, car l’IA générative devient de plus en plus omniprésente – plus de 100 millions de personnes se sont déjà inscrits à ChatGPT seul.
«Et donc, même s’il est important que le Congrès agisse, j’espère qu’ils se rendent compte qu’ils ne peuvent pas simplement adopter une loi anti-deepfake de 2023 et s’épousseter les mains et l’appeler un jour, car ce problème est un problème beaucoup plus important. que quelques outils algorithmiques », Hartzog, professeur de droit à la BU et co-auteur de Violation : pourquoi la loi sur la sécurité des données échoue et comment l’améliorer, a raconté Raw Story. « C’est fondamental pour tout notre type de réseaux de distribution d’informations médiatiques et de lois sur la liberté d’expression et la protection des consommateurs. »
D’autres législateurs ne ressentent pas la même pression. Beaucoup supposent que l’Amérique est plus sûre que les autres nations en ce qui concerne les deepfakes alimentés par l’IA.
« Je pense que dans un écosystème plus avancé, comme notre nouveau système, il est probablement plus facile pour les campagnes de sauter dessus assez rapidement et de le renverser. Je pense que dans le monde en développement, cela pourrait déclencher des émeutes et des guerres civiles », a récemment déclaré le sénateur Marco Rubio (R-FL), vice-président de la commission sénatoriale du renseignement, à Raw Story.
D’autres au Congrès – y compris les chefs de parti – pensent que le gouvernement est largement impuissant lorsqu’il s’agit d’empêcher la falsification profonde des élections américaines.
« Tout ce que nous pouvons faire, c’est dire la vérité et appeler le public à ne pas croire tout ce qu’il entend et voit », a déclaré le sénateur Dick Durbin (D-IL), le whip de la majorité au Sénat, à Raw Story.
Alors que 2020 était l’élection du « fait alternatif », 2024 est sur le point d’être l’élection de la réalité alternative. Les « fausses nouvelles » ne sont plus seulement un autocollant de pare-chocs ; c’est maintenant la réalité.
« Nous sommes dedans », a déclaré la sénatrice Kirsten Gillibrand (D-NY) à Raw Story, « et l’IA facilite de manière exponentielle la création d’un faux récit, la projection de ce faux récit dans le monde entier, la création d’un faux récit crédible. un contenu beaucoup plus détaillé et approfondi et il sera très difficile de prendre quelque chose qui est diffusé dans le monde entier et de le déclarer faux.
Gillibrand a appelé à la création d’un nouveau gouvernement fédéral Agence de protection des données depuis des années, affirmer que la Federal Trade Commission est impuissante lorsqu’il s’agit de réglementer les grandes technologies. La Commission électorale fédérale, quant à elle, prend souvent des années parvenir à un accord sur les mises à jour, même les plus modestes, de sa réglementation en matière de publicité politique.
« Je pense que nous devons continuer à nous concentrer sur la vérité et nous assurer que nous avons des leviers gouvernementaux et un système juridique pour créer la responsabilité et la surveillance afin de nous assurer que la vérité est protégée », a déclaré Gillibrand.
Légiférer sur la « vérité » dans un univers politique post-vérité peut s’avérer impossible, mais nous ne le saurons vraiment pas tant que la poussière ne sera pas retombée après l’élection de 2024. C’est pourquoi de nombreux législateurs, experts et défenseurs de la vie privée se préparent à une élection comme aucune autre dans l’histoire des États-Unis. .
« Chaque tour anti-démocratique du livre sera joué en 2024. Sans aucun doute », Représentant Jamie Raskin (D-MD) – un responsable de la destitution de Trump et membre du comité restreint du 6 janvier – a récemment déclaré à Raw Story. « Le gars dîne avec des racistes et des antisémites, Trump semble déterminé à prouver qu’il peut faire tout ce qu’il veut, y compris tirer sur quelqu’un sur la Cinquième Avenue, et sa secte ne bougera pas. Voilà où nous en sommes au 21e siècle.