Los empleados de Facebook llevan años advirtiendo que mientras la compañía se convertía en un servicio global no controlaba el contenido abusivo en países donde tal discurso probablemente causaría el mayor daño.
Durante más de una década, la empresa de Mark Zuckerberg presionó para convertirse en la plataforma en línea dominante del mundo.
En la actualidad opera en más de 190 países y cuenta con más de 2.800 millones de usuarios mensuales que publican contenido en más de 160 idiomas.
No obstante, sus esfuerzos para impedir que sus productos se conviertan en conductos para el discurso de odio, la retórica incendiaria y la desinformación no siguieron el ritmo de su expansión global.
El viernes, un consorcio de 17 organizaciones de noticias de Estados Unidos, comenzó a publicar una serie de historias, denominadas colectivamente «Los papeles de Facebook», basadas en un tesoro de cientos de documentos internos de la empresa que se incluyeron en las divulgaciones hechas a la Comisión de Bolsa y Valores y se proporcionaron al Congreso en forma editada por el asesor legal de la denunciante de Facebook, Frances Haugen.
Los documentos internos mostraron que la empresa sabía que no contrató suficientes trabajadores con las habilidades lingüísticas y el conocimiento de los eventos locales necesarios para identificar publicaciones objetables de usuarios en varios países en desarrollo.
Los escritos también determinaron que Facebook emplea sistemas de inteligencia artificial para erradicar ese contenido que con frecuencia tampoco están a la altura. Asimismo, tampoco hizo fácil que sus propios usuarios globales marquen las publicaciones que violan las reglas del sitio.
Según advirtieron los empleados en los documentos, esas deficiencias podrían limitar la capacidad de la compañía para cumplir su promesa de bloquear el discurso de odio y otras publicaciones que infrinjan sus reglas en lugares desde Afganistán a Yemen.
En una revisión publicada en el tablero de mensajes internos de Facebook sobre las formas en que la empresa identifica los abusos en su sitio, un empleado informó de «brechas significativas» en ciertos países en riesgo de violencia en el mundo real, sobre todo en Myanmar y Etiopía.
La portavoz de Facebook, Mavis Jones, replicó en un comunicado que la compañía tiene hablantes nativos en todo el mundo que revisan contenidos en más de 70 idiomas, así como expertos en temas humanitarios y derechos humanos.
«Estos equipos trabajan para frenar el abuso en la plataforma en lugares donde existe un mayor riesgo de conflicto y violencia. Sabemos que estos desafíos son reales y estamos orgullosos del trabajo que hemos realizado hasta la fecha», afirmó.
Aun así, los documentos ofrecen ejemplos detallados de cómo los empleados hicieron sonar las alarmas en los últimos años sobre los problemas con las herramientas de la empresa -tanto humanas como tecnológicas- destinadas a erradicar o bloquear discursos que violan sus propios estándares.
Entre las debilidades citadas está la falta de algoritmos de detección para los idiomas utilizados en algunos de los países que Facebook consideró más «en riesgo» de posibles daños y violencia en el mundo real derivados de abusos en su sitio.
«La firma designa a los países en riesgo basándose en variables que incluyen disturbios, violencia étnica, número de usuarios y leyes vigentes», revelaron dos exempleados. ´»El sistema tiene como objetivo dirigir los recursos a lugares donde los abusos en su sitio podrían tener el impacto más severo», finalizaron.
Facebook invirtió US$ 13.000 millones desde 2016 para mejorar la seguridad de sus plataformas, según la portavoz de la compañía. En comparación, los ingresos anuales de la compañía superaron los US$ 85.000 millones el año pasado y sus ganancias alcanzaron los US$ 29.000 millones.