El 'detrás de cámaras' de la operación de Facebook para limpiar contenidos
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

El 'detrás de cámaras' de la operación de Facebook para limpiar contenidos

COMPARTIR

···

El 'detrás de cámaras' de la operación de Facebook para limpiar contenidos

En el 'foro de estándares de contenido', el equipo de Facebook tiene la difícil tarea de decidir qué es y qué no es aceptable en una red de más de dos mil millones de usuarios.

Financial Times Por Hannan Kuchler
25/04/2018
Al registrarte estás aceptando elaviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.
Placeholder block
Facebook publicó sus políticas en detalle por primera vez, después de haber sido atacada por múltiples lados sobre el contenido ha permitido en su sitio.Ilustración: Ismael Angeles

Si son las 9 a.m. y es martes, entonces debe ser hora de hablar sobre los pezones descubiertos, el lenguaje deshumanizante y las entrañas visibles.

El “foro de estándares de contenido” de Facebook que se lleva a cabo cada dos semanas es la reunión en la que los altos ejecutivos se juntan para revisar las políticas de la red social para eliminar contenido objetable. El equipo tiene una tarea difícil: decidir qué es y qué no es aceptable en una red de más de dos mil millones de usuarios de todo el mundo.

Esta semana, Facebook publicó sus políticas en detalle por primera vez, después de haber sido atacada por múltiples lados sobre el contenido ha permitido — y que no ha permitido — en su sitio.

Desde la crítica de la ONU de que Facebook jugó un papel en difundir el discurso de odio en Myanmar durante la crisis de los rohingya, hasta reclamos de políticos conservadores en EU de que borrar videos de la derecha delata su tendencia liberal, la red social está bajo tal escrutinio que los inversionistas temen que podría suscitar nuevas regulaciones costosas. Los legisladores ya están analizando las prácticas de Facebook que permitieron que los desarrolladores de terceros recolectaran y usaran los datos de los usuarios.

Las 27 páginas de estándares de la comunidad, publicadas el martes, ilustran cómo capacitan a los 15 mil moderadores de la red social para vigilar el sitio.

Las pautas se leen como una lista de la ropa sucia del mundo. Abordan la violencia y el comportamiento delictivo, los problemas de seguridad, incluyendo el acoso y la trata de personas, el contenido ofensivo, la incitación al odio, y la “integridad” y la “autenticidad”, desde spam hasta noticias falsas.

El foro de estándares de contenido liderado por Monika Bickert, una exfiscal del Departamento de Justicia que se convirtió en jefe de gestión de políticas globales de Facebook hace cinco años, reúne a unas 20 personas de diferentes departamentos alrededor de una mesa central en la sede de Menlo Park, California, mientras que otros llaman desde otras oficinas, incluyendo Dublín y Washington.

Los participantes debaten sobre las zonas grises con respecto a cómo se implementan sus políticas. Consideran qué contenido podría considerarse de interés periodístico y, que, por lo tanto, pudiera justificar una exención de algunas reglas. Escuchan las preocupaciones presentadas por grupos externos o moderadores de Facebook. Forman grupos de trabajo para crear nuevas guías.

Y a menudo se equivocan.

En 2016, el equipo de operaciones comunitarias de Facebook eliminó una foto famosa de la guerra de Vietnam, porque mostraba a un niño desnudo huyendo de un ataque de napalm. Recientemente les dijeron a las hermanas Diamond y Silk, blogueras y entusiastas partidarias de Trump, que estaban bajando un vídeo debido a su contenido inseguro, alentando a los políticos republicanos a presionar al fundador de Facebook Mark Zuckerberg sobre la decisión en una audiencia en el Congreso. Zuckerberg dijo que había sido un error.

La compañía dijo ayer que lanzará un proceso de apelación para las personas que sienten que su contenido ha sido eliminado injustamente.

Una publicación cuenta como una amenaza de violencia que debe eliminarse si el usuario menciona un objetivo y un arma o recompensa, o un objetivo y al menos dos de los tres detalles siguientes: ubicación, calendario y método. Facebook define una organización de discurso de odio como cualquier asociación de tres o más personas organizadas bajo un nombre, signo o símbolo que tiene una ideología, declaraciones o acciones físicas que atacan a individuos basándose en lo que Facebook llama características protegidas como raza, género u orientación sexual.

La firma anunció el lunes que había eliminado 1.9 millones de piezas de contenido del Estado Islámico y Al Qaeda en los primeros tres meses del año, el doble que el trimestre anterior. Los avances en inteligencia artificial significan que pueden eliminar 99 por ciento de este contenido sin necesidad de recibir informes de los usuarios.