Un expert de la technologie et des droits de l'homme et un survivant du génocide des Rohingyas ont averti lundi que les nouvelles politiques adoptées par le géant des médias sociaux Meta, qui possède Facebook et Instagram, pourrait inciter à la violence génocidaire à l'avenir.
Le 7 janvier, le méta-PDG Mark Zuckerberg a annoncé des modifications aux méta-politiques qui ont été largement interprétées comme une tentative pour obtenir l'approbation de la nouvelle administration Trump. Ceux-ci comprenaient le remplacement des vérificateurs de faits par un système de notes communautaires, le déménagement des modérateurs de contenu de la Californie au Texas et la levée des interdictions sur les critiques de certains groupes tels que les immigrants, les femmes et les personnes transgenres.
Zuckerberg a présenté les changements en tant que campagne anti-censure, affirmant que la société essayait de « revenir à nos racines autour de la liberté d'expression » et arguant que « les élections récentes se sentent également comme un point de basculement culturel vers, une fois de plus, la priorisation du discours ».
« Avec Zuckerberg et d'autres PDG de la technologie alignés (littéralement, dans le cas de l'inauguration récente) derrière les attaques de grande envergure de la nouvelle administration contre les droits de l'homme, les actionnaires de Meta doivent intensifier et maintenir la direction de l'entreprise pour empêcher Meta de encore en être redevenir un conduit pour la violence de masse, voire le génocide. »
Cependant, Pat de Brún, responsable de Big Tech Accountability à Amnesty International, et Maung Sawyeddollah, fondateur et directeur exécutif du réseau des étudiants rohingyas qui a lui-même fui la violence de l'armée du Myanmar en 2017, a déclaré que le changement des politiques le ferait même même Il est plus probable que les publications Facebook ou Instagram enflammeraient la violence contre les communautés marginalisées du monde entier. Bien que l'annonce de Zuckerberg ne s'appliquait initialement qu'aux États-Unis, la société a suggéré qu'elle pourrait également apporter des changements similaires à l'international.
« Plutôt que d'apprendre de ses contributions imprudentes à la violence de masse dans des pays tels que le Myanmar et l'Éthiopie, Meta est plutôt supprimé d'importantes protections qui visaient à empêcher toute récidive de ces préjudices », a écrit De Brún et Sawyeddollah sur le site Web d'Amnesty International. « En adoptant ces changements, Meta a effectivement déclaré une saison ouverte pour la haine et le harcèlement ciblant ses personnes les plus vulnérables et les plus à risque, y compris les personnes trans, les migrants et les réfugiés. »
Des recherches antérieures ont montré que les algorithmes de Facebook peuvent promouvoir le contenu haineux, faux ou racial provocateur dans le but d'augmenter le temps que les utilisateurs passent sur le site et donc les bénéfices de l'entreprise, parfois avec des conséquences dévastatrices.
Un exemple est ce qui est arrivé aux Rohingyas, comme l'a expliqué De Brún et Sawyeddollah:
Nous avons déjà vu les conséquences horribles de l'insouciance de Meta. En 2017, les forces de sécurité du Myanmar ont entrepris une campagne brutale de nettoyage ethnique contre les musulmans rohingyas. Une commission d'indépendance indépendante des Nations Unies a conclu en 2018 que le Myanmar avait commis un génocide. Dans les années qui ont précédé ces attaques, Facebook était devenu une chambre d'écho de la haine anti-rhingya virulente. La dissémination de masse de la teneur en anti-Rohingya déshumanisante a coulé du feu sur le feu de la discrimination de longue date et a aidé à créer un environnement habilitant pour la violence de masse. En l'absence de garanties appropriées, les algorithmes toxiques de Facebook ont intensifié une tempête de haine contre les Rohingyas, ce qui a contribué à ces atrocités. Selon un rapport des Nations Unies, Facebook a joué un rôle déterminant dans la radicalisation des populations locales et l'incitation à la violence contre les Rohingyas.
Fin janvier, Sawyeddollah – avec le soutien d'Amnesty International, de l'Open Society Justice Initiative et de Victim Advocates International – a déposé la plainte d'un dénonciateur contre Meta auprès de la Securities and Exchange Commission (SEC) concernant le rôle de Facebook dans le génocide rohingya.
La plainte a fait valoir que la société, alors inscrite comme Facebook, avait connu ou du moins « ignorée imprudemment » depuis 2013 que son algorithme encourageait la propagation du discours de haine anti-harghing et que ses politiques de modération de contenu n'étaient pas suffisantes pour résoudre le problème. Malgré cela, il a déformé la situation à la fois à la SEC et aux investisseurs dans plusieurs dépôts.
Maintenant, Sawyeddollah et De Brún craignent que l'histoire ne se répète que si les actionnaires et les législateurs prennent des mesures pour contrer le pouvoir des sociétés technologiques.
« Avec Zuckerberg et d'autres PDG de la technologie alignés (littéralement, dans le cas de l'inauguration récente) derrière les attaques de grande envergure de la nouvelle administration contre les droits de l'homme, les actionnaires de Meta doivent intensifier et maintenir la direction de l'entreprise pour empêcher Meta de encore en être Devenant à nouveau un conduit pour la violence de masse, voire le génocide « , ont-ils écrit. « De même, les législateurs et les législateurs aux États-Unis doivent s'assurer que la SEC conserve sa neutralité, enquêter correctement sur les plaintes légitimes, comme celle que nous avons récemment déposée et s'assurer que ceux qui abusent des droits de l'homme sont confrontés à la justice. »
Les experts des droits de l'homme ne sont pas les seuls préoccupés par la nouvelle direction de Meta. Même les employés sonnent l'alarme.
« Je pense vraiment que c'est un précurseur du génocide », a déclaré un ancien employéPlateforme Lorsque les nouvelles politiques ont été annoncées pour la première fois. « Nous l'avons vu se produire. La vie des vraies personnes va être en danger. Je suis juste dévasté. »
