in

Facebook visé pour son rôle dans le génocide des Rohingyas

[ad_1]

Des victimes s’attaquent au géant américain, accusé d’avoir intensifié la diffusion de propos haineux visant la minorité ethnique des Rohingyas, conduisant au génocide débuté en 2016.

Les systèmes d’algoritmes de Facebook “ont promu la violence contre les Rohingyas” et l’entreprise “doit des réparations” aux victimes pour avoir laissé se propager sur sa plateforme des messages de haine contre cette minorité ethnique, affirme l’organisation Amnesty International dans un rapport publié jeudi. Le document revient sur le rôle du reseau social dans le génocide ayant visé les Rohingyas à partir de 2016.

“Les dangereux algorithmes de Meta, qui détient Facebook, ainsi que la recherche effrénée du profit ont considérablement contribué aux atrocités perpétrées par l’armée de Birmanie ( contre le peuple rohingya en 2017”, dénonce Amnesty.

L’organisation de défense des droits de l’Homme estime que “Meta savait ou aurait dû savoir que les systèmes d’algorithmes de Facebook amplifiaient la propagation de contenus nocifs anti-Rohingyas en Birmanie”, mais “cette entreprise s’est abstenue d’agir”.

Facebook a “intensifié la vague de haine”

En 2017, des centaines de milliers de musulmans rohingyas ont fui une répression sanglante de l’armée et de milices bouddhistes en Birmanie. Des témoignages ont fait état de meurtres, de viols et d’incendies criminels. Environ 850.000 membres de cette minorité musulmane vivent dans des camps de fortune au Bangladesh, après avoir fui. Quelque 600.000 autres se trouvent dans l’Etat Rakhine, en Birmanie.

“Dans les mois et les années ayant précédé ces atrocités, les algorithmes de Facebook ont intensifié la vague de haine contre les Rohingyas, contribuant ainsi à la survenue de violences dans la vraie vie”, a estimé Agnès Callamard, secrétaire générale d’Amnesty International.

Facebook a “tout intérêt” à ce que les utilisateurs et utilisatrices de Facebook restent le plus longtemps possible sur la plateforme, “car cela lui permet de vendre d’autant plus de publicité ciblée”, relève Amnesty.

“Pendant que l’armée birmane commettait des crimes contre l’humanité contre les Rohingyas, Meta tirait profit de cette caisse de résonance créée par ses algorithmes qui a induit une hausse vertigineuse du sentiment de haine. Meta doit rendre des comptes” martèle Amnesty.

“Cette entreprise a à présent la responsabilité d’apporter réparation à toutes les personnes qui ont souffert des violences provoquées par ses agissements irresponsables” poursuit l’ONG.

Cinq modérateurs pour tout le pays

Trois plaintes ont été déposées au Royaume-Uni et aux Etats-Unis par des représentants des Rohingyas et sont en cours d’examen.  Des organisations de jeunes réfugiés rohingyas ont aussi engagé contre Facebook une procédure devant l’Organisation de coopération et de développement économiques (OCDE).

Pour Amnesty, il est “absolument indispensable” que Facebook procède à une “vaste réforme de ses systèmes d’algorithmes (…) faute de quoi le drame qui lie Facebook et les Rohingyas risque de se reproduire ailleurs dans le monde, en particulier là où couvent des violences ethniques”.

L’entreprise fondée par Mark Zuckerberg est par ailleurs accusée de ne pas avoir voulu investir dans des outils de modération. D’après le livre L’inquiétante vérité: et si Facebook n’était pas votre ami?, Facebook n’employait en 2018 que cinq modérateurs en Birmanie, pour 18 millions d’utilisateurs. D’après Amnesty International, Facebook a refusé de répondre à ses questions sur le sujet.

[ad_2]

What do you think?

Written by Germain

Leave a Reply

Your email address will not be published. Required fields are marked *

Jupiter, la plus grande planète du Système solaire, est au plus près de la Terre depuis 1963

les montagnes ont perdu 15 jours d’enneigement depuis 40 ans