La red social más grande del mundo dijo el martes que cada día elimina unos 66,000 mensajes, cerca de 288,000 al mes, que clasifica como expresiones de odio. Y, dice la empresa, actualmente trabaja para mejorar su desempeño.
Facebook define las expresiones de odio como ataques en una persona con base en su raza, preferencia sexual y otras «características protegidas», y dice que depende mucho de sus ahora 2,000 millones de usuarios para que reporten cualquier expresión de odio con la que se topen en la plataforma. Posteriormente, empleados de la red social revisan esos contenidos para decidir si hay que eliminarlos.
Este tema fue el foco de la segunda parte de las llamadas Preguntas Difíciles (Hard Questions) de Facebook, una serie de entradas de blog sobre la forma en que la empresa enfrenta problemas, incluyendo el uso de la inteligencia artificial para combatir el terrorismo. Este esfuerzo reciente por ser más transparente viene en un momento en que el presidente ejecutivo, Mark Zuckerberg, y otros ejecutivos de Facebook han dedicado parte del año a redefinir la misión de la empresa.
En cuanto a las expresiones de odio, Facebook reconoce que no ha sido totalmente exitoso en la implementación de sus propias políticas, dijo Richard Allan, vicepresidente de políticas públicas para Europa, Medio Oriente y Asia de Facebook en una entrada en el blog de la empresa.
Parte del problema, dijo, es determinar qué son expresiones de odio.
Por ejemplo, Allan dijo que una declaración como «burn flags, not fags» (que se traduciría como «quemen banderas y no homosexuales») se puede interpretar como un símbolo de protesta, un insulto contra los gays o una forma de reapropiarse del insulto y darle otro significado.
«Las personas que viven en el mismo país, o son vecinos, tienen distintos niveles de tolerancia sobre expresiones acerca de algunas características protegidas», dijo. «Pero, a veces, no hay un consenso claro, porque las palabras mismas son ambiguas, y la intención que las impulsa es desconocida, o el contexto no está claro».
Allan citó un ejemplo que involucra a Shaun King, un reconocido activista y escritor radicado en Nueva York que publicó cartas de odio que incluían insultos. «Sacamos la publicación de Mr. King por error, al no reconocer en un principio que se compartió para condenar este ataque», dijo.
Facebook está experimentando con tecnología para «filtrar el lenguaje más obviamente tóxico», dijo Allan, subrayando que la empresa está lejos de poder depender de la inteligencia artificial y el aprendizaje de máquinas para lidiar con expresiones de odio e intolerancia.
La empresa cuenta actualmente con unos 4,500 empleados que se encargan de revisar las publicaciones y planea contratar a 3,000 personas más en el próximo año, según Allan.