Myanmar: los rohingya piden reparación a Facebook

Con los gallos cantando de fondo mientras habla desde el abarrotado campo de refugiados en Bangladesh que ha sido su hogar desde 2017, Maung Sawyeddollah, de 21 años, describe lo que sucedió cuando el discurso de odio violento y la desinformación contra la minoría rohingya en Myanmar comenzaron a difundirse en Facebook.

“Estuvimos bien con la mayoría de la gente allí. Pero algunos tipos muy nacionalistas y de mente estrecha intensificaron el odio contra los rohingya en Facebook”, dijo. “Y las personas que eran buenas, en estrecha comunicación con los rohingya, cambiaron de opinión contra los rohingya y se convirtió en odio”.

Durante años, Facebook, ahora llamada Meta Platforms Inc., impulsó la narrativa de que era una plataforma neutral en Myanmar que era utilizada indebidamente por personas malintencionadas y que, a pesar de sus esfuerzos por eliminar material violento y de odio, lamentablemente se quedó corta. Esa narrativa hace eco de su respuesta al papel que ha desempeñado en otros conflictos en todo el mundo, ya sea en las elecciones de 2020 en EE. UU. o en el discurso de odio en India.

Pero un informe nuevo y completo de Amnistía Internacional afirma que la narrativa preferida de Facebook es falsa. La plataforma, dice Amnistía, no era simplemente un sitio pasivo con una moderación de contenido insuficiente. En cambio, los algoritmos de Meta “amplificaron y promovieron contenido de manera proactiva” en Facebook, lo que incitó al odio violento contra los rohingya desde 2012.

A pesar de años de advertencias, descubrió Amnistía, la compañía no solo no logró eliminar el discurso de odio violento y la desinformación contra los rohingya, sino que lo difundió y amplificó activamente hasta que culminó en la masacre de 2017. El momento coincidió con la creciente popularidad de Facebook en Myanmar, donde para muchas personas sirvió como su única conexión con el mundo en línea. Eso convirtió efectivamente a Facebook en Internet para un gran número de la población de Myanmar.

Más de 700.000 rohingya huyeron a la vecina Bangladesh ese año. Las fuerzas de seguridad de Myanmar fueron acusadas de violaciones y asesinatos masivos y de incendiar miles de viviendas propiedad de rohingya.

“Meta, a través de sus peligrosos algoritmos y su implacable búsqueda de ganancias, contribuyó sustancialmente a las graves violaciones de derechos humanos perpetradas contra los rohingya”, dice el informe.

Un portavoz de Meta se negó a responder preguntas sobre el informe de Amnistía. En un comunicado, la compañía dijo que “se solidariza con la comunidad internacional y apoya los esfuerzos para hacer que Tatmadaw rinda cuentas por sus crímenes contra el pueblo rohingya”.

“Nuestro trabajo de seguridad e integridad en Myanmar sigue guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales, incluida la Misión de investigación de las Naciones Unidas sobre Myanmar; la Evaluación de impacto en los derechos humanos que encargamos en 2018; así como nuestra gestión continua de riesgos en los derechos humanos. ”, dijo Rafael Frankel, director de políticas públicas para mercados emergentes, Meta Asia-Pacífico, en un comunicado.

Al igual que Sawyeddollah, citado en el informe de Amnistía y que habló con la AP el martes, la mayoría de las personas que huyeron de Myanmar (alrededor del 80% de los rohingya que vivían en el estado de Rakhine, en el oeste de Myanmar en ese momento) todavía se encuentran refugiados. campamentos Y están pidiendo a Meta que pague reparaciones por su papel en la represión violenta de los musulmanes rohingya en Myanmar, que Estados Unidos declaró un genocidio a principios de este año.

El informe de Amnistía, publicado el miércoles, se basa en entrevistas con refugiados rohingya, ex empleados de Meta, académicos, activistas y otros. También se basó en documentos revelados al Congreso el año pasado por la denunciante Frances Haugen, excientífica de datos de Facebook. Señala que los activistas de derechos digitales dicen que Meta ha mejorado su compromiso con la sociedad civil y algunos aspectos de sus prácticas de moderación de contenido en Myanmar en los últimos años. En enero de 2021, después de que un violento golpe de Estado derrocara al gobierno, excluyó a las fuerzas armadas del país de su plataforma.

Pero los críticos, incluidos algunos de los propios empleados de Facebook, han sostenido durante mucho tiempo que ese enfoque nunca funcionará realmente. Significa que Meta está jugando al whack-a-mole tratando de eliminar material dañino, mientras que sus algoritmos diseñados para impulsar contenido “atrayente” que es más probable que moleste a la gente, esencialmente trabajan en su contra.

“Estos algoritmos son realmente peligrosos para nuestros derechos humanos. Y lo que sucedió con el papel de los rohingya y Facebook en ese conflicto específico corre el riesgo de volver a ocurrir, en muchos contextos diferentes en todo el mundo”, dijo Pat de Brun, investigador y asesor sobre inteligencia artificial y derechos humanos. derechos en Amnistía.

“La empresa se ha mostrado completamente renuente o incapaz de resolver las causas profundas de su impacto en los derechos humanos”.

Después de que la Misión Internacional Independiente de Investigación de la ONU sobre Myanmar destacara el papel “significativo” que desempeñó Facebook en las atrocidades perpetradas contra los rohingya, Meta admitió en 2018 que “no estábamos haciendo lo suficiente para ayudar a evitar que nuestra plataforma se utilizara para fomentar la división”. e incitar a la violencia fuera de línea”.

En los años siguientes, la compañía “promocionó ciertas mejoras en sus prácticas de participación comunitaria y moderación de contenido en Myanmar”, dijo Amnistía, y agregó que su informe “concluye que estas medidas han resultado totalmente inadecuadas”.

En 2020, por ejemplo, tres años después de que la violencia en Myanmar matara a miles de musulmanes rohingya y desplazara a 700.000 más, Facebook investigó cómo circulaba en su sitio un video de una destacada figura de odio anti-rohingya, U Wirathu.

La investigación reveló que más del 70% de las vistas del video provinieron de “encadenamientos”, es decir, se sugirió a las personas que reprodujeron un video diferente, mostrando lo que “seguirá”. Los usuarios de Facebook no buscaban ni buscaban el video, sino que los algoritmos de la plataforma los alimentaban.

Wirathu había sido prohibido en Facebook desde 2018.

“Incluso un enfoque bien dotado para la moderación de contenido, de forma aislada, probablemente no habría sido suficiente para prevenir y mitigar estos daños algorítmicos. Esto se debe a que la moderación de contenido no aborda la causa raíz de la amplificación algorítmica de contenido dañino de Meta”, dice el informe de Amnistía. .

Los refugiados rohingya buscan reparaciones no especificadas del gigante de las redes sociales con sede en Menlo Park, California, por su papel en la perpetuación del genocidio. Meta, que es objeto de demandas gemelas en los EE. UU. y el Reino Unido que buscan 150.000 millones de dólares para los refugiados rohingya, se ha negado hasta ahora.

“Creemos que el genocidio contra los rohingya fue posible solo gracias a Facebook”, dijo Sawyeddollah. “Se comunicaban entre ellos para difundir el odio, organizaban campañas a través de Facebook. Pero Facebook guardaba silencio”.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.