Facebook tente de combattre le discours de haine envers les Rohingyas
Photo: © RNS/AP Photo/Manish Swarup
, RNS/Protestinter
Un réseau de médias sociaux créé pour connecter les gens reconnaît désormais qu'il doit se mobiliser pour empêcher la propagation de discours haineux. Ces publications ont contribué à une campagne d’expulsion de la minorité musulmane Rohingya au Myanmar. Cette prise de conscience vient de la part de Monika Bickert, vice-présidente de Facebook pour la gestion des politiques universelles. Elle s’est exprimée fin juin, lors d'un événement sur la lutte contre la désinformation et l'extrémisme violent dans l'ère digitale, à Washington D.C.
Actuellement, au Myanmar, des militants exigent que Facebook modère avec plus de soin le réseau social dans des pays comme le leur, où c'est le principal moyen pour communiquer et accéder à l'information. «C'est un terrain complexe et nous pourrions faire tellement mieux», reconnaît Monika Bickert. Plus de 85% des 2,2 milliards d'utilisateurs de Facebook vivent en dehors des États-Unis, confirment les responsables des politiques de l'entreprise. «Cela inclut 18 millions d'utilisateurs rien qu'au Myanmar», précise Mia Garlick, directrice de Facebook pour les politiques publiques.
Le nombre d'utilisateurs de Facebook au Myanmar a explosé depuis 2012 quand il y a eu «des réformes démocratiques majeures» dans le pays, l'ouvrant ainsi au reste du monde, à internet et à Facebook, relève Patrick Balazo, un chercheur de l'Université de Dalhousie et du Centre canadien sur l’apatridie. Les téléphones portables bon marché, quasiment inaccessibles auparavant, ont inondé le pays du jour au lendemain - avec l'application déjà installée. Pour les habitants du Myanmar, «Facebook, c'est le 'world wide web'», constate Patrick Balazo,
Un nettoyage ethniqueLes Nations Unies ont affirmé que la campagne militaire menée par le Myanmar contre les Rohingyas «semble être un exemple type de nettoyage ethnique». Plus de 650'000 Rohingyas ont été contraints de fuir vers le Bangladesh entre août 2017 et mars 2018. Les Rohingyas sont considérés comme des «étrangers», des «immigrants illégaux», voire même des «terroristes». «On leur a interdit la citoyenneté. Et des militaires et responsables de la sécurité les ont persécutés et violentés à cause de leur religion», explique Engy Abdelkader, chercheur à l'Université Rutger et spécialiste de la persécution des Rohingyas au Myanmar.
«De tels messages déshumanisent les Rohingyas et servent à justifier les atrocités, tout en renforçant et en propageant des mouvements anti-Rohingyas et anti-musulmans», ajoute le spécialiste. Facebook est arrivé dans un environnement où il était facile pour un courant déjà existant «ultranationaliste» de devenir viral. Et ces ultranationalistes ont décrit les Rohingya comme un groupe «déterminés à détruire la nation bouddhiste», souligne Patrick Balazo.
Sur Facebook, des caricatures politico-raciales, des images modifiées et de fausses informations sont devenues virales. Cela a joué un «rôle déterminant» dans la violence contre les musulmans Rohingyas, les poussant à fuir vers le Bangladesh, précise Marzuki Darusman, président de la Mission internationale des Nations Unies pour l'établissement des faits en Myanmar.
«Cela soulève un certain nombre de questions éthiques et de responsabilités pour Facebook», explique Irina Raicu, directrice du programme d’éthique sur internet au Centre Markkula à l'Université de Santa Clara. «Si vous êtes une multinationale et que vous opérez dans différentes communautés, il faut être vigilant. On ne peut pas simplement appliquer partout ses propres valeurs, sans tenir compte du contexte».
Contrôler les discours de haineDes milliards de commentaires apparaissent chaque jour sur Facebook, souligne Monika Bickert, et l'entreprise ne peut pas tous les modérer. «C'est pour cela qu'on utilise des ‘outils techniques’. On compte également sur les utilisateurs pour signaler les messages qui contreviennent aux règles communautaires. Ces publications sont alors envoyées à une équipe de plus de 7'500 employés de Facebook pour qu’elles soient examinées».
Ces normes communautaires ont été développées avec la participation de plusieurs groupes religieux. Elles sont «censées donner aux gens la liberté de s'exprimer tout en s'assurant que Facebook reste un environnement sain pour tous», affirme Mia Garlick. Les «outils techniques» capturent plus de 99% des vidéos qui sont finalement supprimées de la plateforme, considérées comme de la «propagande terroriste». Mais c'est plus difficile avec des discours de haine, que l'entreprise définit comme toute attaque basée sur des caractéristiques protégées comme l'appartenance religieuse.
Les discours de haine s’insèrent dans un contexte, remarque Monika Bickert. Une machine peut reconnaître une injure religieuse, mais ne peut pas déceler si l’utilisateur en parle, car il en a été victime ou s’il insulte un autre utilisateur. Dans une lettre ouverte adressée au PDG de Facebook, Mark Zuckerberg, en avril dernier, les membres de plusieurs organisations de la société civile ont signalé la présence de messages viraux comportant de fausses informations sur Facebook Messenger: les bouddhistes ont reçu des messages disant que les musulmans planifiaient de les attaquer à telle date, et vice-versa. Une tentative d’inciter les deux groupes à s’affronter.
Des militants demandent à l'entreprise d'engager plus de modérateurs, de mobiliser les groupes sur place et d'être plus transparents sur ce qu'ils font pour résoudre ce problème.
Que fait Facebook?Facebook a augmenté le nombre de personnes qui tentent de comprendre et de réagir face à la situation au Myanmar. Son équipe d'opérations communautaires comprend des spécialistes nationaux qui connaissent les contextes sociaux, culturels et religieux de chaque pays, y compris du Myanmar. Leurs efforts pour faire cesser la propagation de discours de haine et de désinformation dans le pays passe par l'identification de groupes haineux; l’élimination des récidivistes et des faux comptes; la possibilité aux utilisateurs de dénoncer les contenus partagés via Facebook Messenger.
Mais Facebook a besoin d'améliorer sa façon d’analyser les messages en langue birmane, souligne Monica Bickert. Tandis que l'entreprise travaille avec des groupes au Myanmar depuis des années, «nous devons renforcer nos relations avec les groupes de société civile sur le terrain». Certains activistes se méfient de Facebook. «Il n'y a personne qui propose réellement de solutions et c'est trop facile de critiquer la proposition actuelle sans vraiment rien proposer d'autre. En même temps, laisser les choses continuer ainsi est un risque évident où des gens pourraient perdre la vie à cause d'incitations à la violence».