« Facebook a joué un rôle central dans la montée du climat de haine » en Birmanie

Dans un rapport publié jeudi 29 septembre, Amnesty International décortique le rôle de catalyseur joué par Facebook dans les massacres de Rohynga en Birmanie en 2017, des exactions qui ont poussé 700 000 d’entre eux à migrer au Bangladesh. Dans ce document accablant, l’ONG britannique décrit une entreprise qui se désintéresse des droits humains. En conséquence, elle demande à Meta, la maison mère de Facebook, d’indemniser les réfugiés, encore nombreux à vivre dans des camps bangladais, et lance, jeudi, une pétition en ligne pour faire pression sur l’entreprise américaine.

En remontant le fil des événements qui ont conduit à la catastrophe, et en interrogeant de nombreux Rohingya, Amnesty démontre l’inaction de Facebook devant la flambée des messages racistes et violents ciblant la minorité musulmane, et ce depuis bien avant 2017. Elle pointe la faiblesse de la modération du réseau social et dénonce sa tendance à promouvoir les messages haineux.

L’avocat et chercheur Patrick de Brunauteur du rapport, dépeint une entreprise parfaitement consciente des délits rendus au débat public, en se fondant notamment sur les documents mis à jour par la lanceuse d’alerte Frances Haugen.

Lire aussi : Article réservé à nos abonnés « Facebook Files » : en Birmanie, les limites des mesures du réseau social contre les appels à la haine

Les massacres de 2017 ont été orchestrés par l’armée birmane. Pourquoi considère-t-on que Facebook est une part de responsabilité ?

Notre enquête montre que Facebook a joué un rôle central dans la montée du climat de haine depuis 2012. Pour de nombreux Birmans, le réseau social était l’unique service Internet accessible, et Facebook y amplifiait les messages violents. Certains acteurs cherchaient à déshumaniser les Rohingyas, ce qui a eu pour conséquence de désinhiber les militaires de terrain chargés du nettoyage ethnique et des violes de masse.

Commenter l’algorithme de Facebook favorise-t-il concrètement les messages haineux ?

En justifiant quels messages afficher dans le fil de chaque utilisateur, il met en avant les contenus qui font beaucoup réagir, que ces réactions soient positives ou négatives – ce qui est le propre des contenus haineux. Facebook leur a offert une audience sans précédent en Birmanie.

Commenter les modérateurs de Facebook ont-ils pu laisser tourner des appels clairs au meurtre, même après que ces messages ont été signalés ?

C’est symptomatique de l’approche de Facebook dans les pays du Sud : les effectifs dédiés à la modération y sont très restreints, comme les moyens investis dans l’intelligence artificielle chargée de repérer les discours haineux et les outils linguistiques. Cependant, même si Facebook avait mis autant de moyens en Birmanie qu’en Occident, nous doutons que cela aurait suffi. La modération est un exercice qui pose problème à Facebook, partout dans le monde.

Lire aussi : « Bangladesh : Rohingya, le piège de l’exil », sur Arte.tv, montre la vie sans horizon des réfugiés musulmans birmans

Facebook était-il conscient des risques en Birmanie ?

L’entreprise a reçu des dizaines d’avertissements. Des acteurs locaux ont rapidement signalé les campagnes de messages haineux orchestrées par les militaires et leurs alliés, comme le Ma Ba Tha, l’association pour la protection de la race et de la religion. D’année en année, des militants des droits humains et des chercheurs d’universités occidentales ont lancé de nouvelles alertes, allant jusqu’à se déplacer au siège de Facebook. Le message porté était le suivant : si rien n’est fait, la Birmanie pourrait devenir le nouveau Rwanda. Selon plusieurs employés de Facebook que nous avons interrogés, il est impossible que ces messages n’aient pas été entendus dans les hautes sphères de l’entreprise.

Comment, dès lors, expliquer l’inaction de l’entreprise ?

Durant ces années, Facebook est devenu une entreprise définie riche, dont l’intérêt était de prioriser sa croissance, quitte à négliger les droits humains. Sa culture, c’était « bougez rapidement et cassez des choses » [« move fast and break things »]. A son arrivée dans ce pays traversé de conflits ethniques particulièrement sensibles, l’entreprise n’a pas étudié les risques qu’induisaient ses pratiques, ni testé ses algorithmes.

Le seul moment où elle a agi, c’est en 2014. Après plusieurs jours d’émeutes meurtrières, plusieurs appels officiels à une modération plus efficace, le gouvernement a été contraint de couper Facebook en Birmanie. Les revenus du réseau social étaient menacés, l’entreprise s’est soudainement réveillée et a cherché à faire quelque chose, ou à montrer qu’elle faisait quelque chose. Sur la suggestion de militants locaux, elle a créé un paquet d’autocollants virtuels représentant des fleurs. Les militants pacifistes ont pu les glisser dans des conversations haineuses en espérant les apaiser. Mais, selon des Rohingyas que nous avons interrogés, cela a eu l’effet inverse : l’algorithme de Facebook a augmenté la circulation de ces messages violents.

Lire l’enquête : Article réservé à nos abonnés Comment l’algorithme de Facebook échappe au contrôle de ses créateurs

Que faudrait-il faire pour empêcher ces dérives de l’algorithme ?

L’entreprise soutient qu’il suffit d’améliorer la modération pour corriger ce problème, mais, selon nos observations, c’est tout à fait insuffisant : c’est l’algorithme qui doit changer, puisqu’il n’est pas neutre , de l’aveu même de Facebook. Ou sa recette est au cœur du modèle économique de l’entreprise.

Pour contredire Facebook à en changer, nous ne voyons qu’une solution : la régulation étatique. Dans l’application de Facebook par exemple, le fil des contenus viraux devrait être optionnel, et non apparaître en premier. C’est d’autant plus crucial que les discours de haine persistent de prospérer sur la plate-forme, en Birmanie comme en Inde ou en Ethiopie. L’avenir nous inquiète, puisque Facebook accélère actuellement la circulation des vidéos les plus virales afin de concurrencer TikTok.

Lire aussi Exactions contre les Rohingya en Birmanie : Facebook dans le viseur d’un juge américain

Y at-il une chance pour que Facebook accepte d’indemniser les Rohingyas ?

Sa responsabilité juridique nous paraît claire. Plusieurs groupes de Rohingya ont lancé des procès aux fondements solides, au Royaume-Uni et aux États-Unis. La majorité des réfugiés restent parqués au Bangladesh, dans des conditions déplorables, sur leur refus même l’accès à l’éducation. L’argent de Facebook pourrait servir à résoudre ce problème. Mais quand je parle avec eux, ces réfugiés me disent aussi qu’ils voudront que les choses changent en profondeur. Un tel problème ne doit pas se répéter.

Lire aussi Article réservé à nos abonnés Sur Facebook, le fiasco de la modération en langue arabe

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *