Tech

Facebook no combatió ‘fake news’ sobre pandemia por miedo a afectar sus ganancias: informe

La red social se ha visto envuelta en una polémica tras ser criticada de priorizar las ganancias sobre la salud de los usuarios.

En marzo, cuando las afirmaciones sobre los peligros y la ineficacia de las vacunas contra el coronavirus se difundieron en las redes sociales y socavaron los intentos de detener la propagación del virus, algunos empleados de Facebook pensaron que habían encontrado una manera de ayudar.

Al alterar la clasificación de las publicaciones sobre vacunas en las fuentes de noticias de las personas, los investigadores de la compañía se dieron cuenta de que podían reducir la información engañosa que las personas veían sobre las vacunas COVID-19 y ofrecer a los usuarios publicaciones de fuentes legítimas como la Organización Mundial de la Salud. (OMS).

“Dados estos resultados, supongo que esperamos lanzarlo lo antes posible”, escribió un empleado de Facebook, respondiendo al memorando interno sobre el estudio.

En cambio, Facebook archivó algunas sugerencias del estudio. No se realizaron otros cambios hasta abril.

Cuando otro investigador de Facebook sugirió deshabilitar los comentarios en las publicaciones de vacunas en marzo hasta que la plataforma pudiera hacer un mejor trabajo al abordar los mensajes antivacunas que acechan en ellas, esa propuesta fue ignorada.

Los críticos dicen que la razón por la que Facebook tardó en tomar medidas sobre las ideas es simple: al gigante tecnológico le preocupaba que pudiera afectar las ganancias de la compañía.

“¿Por qué no eliminarías los comentarios? Porque el compromiso es lo único que importa “, dijo Imran Ahmed, director ejecutivo del Center for Counter Digital Hate, un grupo de vigilancia de Internet. “Impulsa la atención y la atención es igual a ojos y ojos iguales a ingresos publicitarios”.

En una declaración enviada por correo electrónico, Facebook dijo que ha logrado un “progreso considerable” este año al reducir la información errónea sobre las vacunas en los feeds de los usuarios.

Las discusiones internas de Facebook se revelaron en divulgaciones hechas a la Comisión de Bolsa y Valores y proporcionadas al Congreso, en forma redactada, por el exempleado de Facebook, quien se convirtió en denunciante, el asesor legal de Frances Haugen.

Las versiones redactadas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones de noticias , incluida The Associated Press.

El tesoro de documentos muestra que en medio de la pandemia de COVID-19, Facebook investigó cuidadosamente cómo sus plataformas difunden información errónea sobre las vacunas que salvan vidas. También revelan que los empleados de base sugirieron regularmente soluciones para contrarrestar el contenido antivacunas en el sitio, sin éxito.

The Wall Street Journal informó sobre algunos de los esfuerzos de Facebook para lidiar con los comentarios contra las vacunas el mes pasado.

La respuesta de Facebook plantea dudas sobre si la empresa priorizó la controversia y la división, sobre la salud de sus usuarios.

“Estas personas están vendiendo miedo e indignación”, dijo Roger McNamee, un capitalista de riesgo de Silicon Valley e inversor temprano en Facebook que ahora es un crítico vocal. “No es una casualidad. Es un modelo de negocio “.

Por lo general, Facebook clasifica las publicaciones por participación: la cantidad total de me gusta, no me gusta, comentarios y veces que se comparte. Ese esquema de clasificación puede funcionar bien para temas inocuos como recetas, fotos de perros o el último canto viral. Pero los propios documentos de Facebook muestran que cuando se trata de problemas de salud pública divisivos como las vacunas, la clasificación basada en el compromiso solo enfatiza la polarización, el desacuerdo y la duda.

Para estudiar formas de reducir la información errónea sobre las vacunas, los investigadores de Facebook cambiaron la forma en que se clasifican las publicaciones de más de 6 mil usuarios en EU, Brasil y Filipinas. En lugar de ver publicaciones sobre vacunas que se eligieron en función de su popularidad, estos usuarios vieron publicaciones seleccionadas por su confiabilidad.

Los resultados fueron sorprendentes: una disminución de casi el 12 por ciento en el contenido que hizo que las afirmaciones fueran desacreditadas por los verificadores de hechos y un aumento del 8 por ciento en el contenido de organizaciones autorizadas de salud pública como la OMS o los Centros para el Control de Enfermedades de EU. Esos usuarios también tuvieron una disminución del 7 por ciento en las interacciones negativas en el sitio.

Los empleados de la empresa reaccionaron al estudio con entusiasmo, según los intercambios internos incluidos en los documentos del denunciante.

“¿Hay alguna razón por la que no haríamos esto?” un empleado de Facebook escribió en respuesta a un memorando interno que describía cómo la plataforma podría frenar el contenido anti-vacunas.

Facebook dijo que implementó muchos de los hallazgos del estudio, pero no hasta dentro de un mes, un retraso que se produjo en una etapa fundamental del lanzamiento mundial de la vacuna.

En un comunicado, la portavoz de la compañía, Dani Lever, dijo que los documentos internos “no representan el progreso considerable que hemos logrado desde ese momento en la promoción de información confiable sobre COVID-19 y la expansión de nuestras políticas para eliminar COVID más dañino y desinformación de vacunas”.

La compañía también dijo que tomó tiempo considerar e implementar los cambios.

Sin embargo, la necesidad de actuar con urgencia no podría haber sido más clara: en ese momento, los estados de EU estaban implementando vacunas para los más vulnerables: los ancianos y los enfermos. Y los funcionarios de salud pública estaban preocupados. Solo el 10 por ciento de la población había recibido su primera dosis de una vacuna COVID-19. Y un tercio de los estadounidenses estaban pensando en saltarse la foto por completo, según una encuesta de The Associated Press-NORC Center for Public Affairs Research .

A pesar de esto, los empleados de Facebook reconocieron que “no tenían ni idea” de lo malo que era el sentimiento contra las vacunas en las secciones de comentarios de las publicaciones de Facebook. Pero la investigación de la compañía en febrero encontró que hasta el 60 por ciento de los comentarios en las publicaciones sobre vacunas eran antivacunas o reacios a las vacunas.

“Ese es un gran problema y tenemos que solucionarlo”, decía la presentación del 9 de marzo.

Peor aún, los empleados de la empresa admitieron que no sabían captar esos comentarios. Y si lo hicieran, Facebook no tenía una política para eliminar los comentarios. El programa gratuito permitía a los usuarios invadir publicaciones sobre vacunas de medios de comunicación u organizaciones humanitarias con comentarios negativos sobre las vacunas.

“Nuestra capacidad para detectar (vacilación de vacunas) en los comentarios es mala en inglés, y básicamente no existe en otros lugares”, dijo otro memorando interno publicado el 2 de marzo.

Derek Beres, residente de Los Ángeles, autor e instructor de acondicionamiento físico, ve que el contenido contra las vacunas prospera en los comentarios cada vez que promueve las inmunizaciones en sus cuentas de Instagram, que es propiedad de Facebook. El año pasado, Beres comenzó a presentar un podcast con amigos después de que notaron teorías de conspiración sobre COVID-19 y las vacunas se arremolinaron en las redes sociales de personas influyentes populares en salud y bienestar.

A principios de este año, cuando Beres publicó una foto de él mismo recibiendo la inyección de COVID-19, algunos en las redes sociales le dijeron que probablemente caería muerto en seis meses.

“La sección de comentarios es un basurero para muchas personas”, dijo Beres.

Los comentarios contra las vacunas en Facebook crecieron tanto que incluso cuando agencias de salud pública prominentes como UNICEF y la Organización Mundial de la Salud instaban a las personas a vacunarse, las organizaciones se negaron a utilizar la publicidad gratuita que Facebook les había dado para promover la inoculación, según el documentos.

Algunos empleados de Facebook tuvieron una idea. Si bien la compañía trabajó para elaborar un plan para frenar todo el sentimiento contra las vacunas en los comentarios, ¿por qué no deshabilitar por completo los comentarios en las publicaciones?

“Muy interesado en su propuesta de eliminar TODOS los comentarios en línea para las publicaciones de vacunas como una solución provisional hasta que podamos detectar suficientemente la vacilación de la vacuna en los comentarios para refinar nuestra eliminación”, escribió un empleado de Facebook el 2 de marzo.

La sugerencia no llegó a ninguna parte.

En cambio, el CEO de Facebook, Mark Zuckerberg, anunció el 15 de marzo que la compañía comenzaría a etiquetar publicaciones sobre vacunas que las describieran como seguras.

La medida permitió que Facebook continuara obteniendo un gran compromiso y, en última instancia, obteniendo ganancias, de los comentarios contra las vacunas, dijo Ahmed, del Centro para Contrarrestar el Odio Digital.

“Estaban tratando de encontrar formas de no reducir el compromiso, pero al mismo tiempo hacer que pareciera que estaban tratando de hacer algunos movimientos para solucionar los problemas que causaban”, dijo.

No es realista esperar que una empresa multimillonaria como Facebook cambie voluntariamente un sistema que ha demostrado ser tan lucrativo, dijo Dan Brahmy, director ejecutivo de Cyabra, una empresa de tecnología israelí que analiza las redes sociales y la desinformación. Brahmy dijo que las regulaciones gubernamentales pueden ser lo único que podría obligar a Facebook a actuar.

La razón por la que no lo hicieron es porque no tenían que hacerlo”, dijo Brahmy. “Si daña el resultado final, es irrecuperable”.

La legislación bipartidista en el Senado de EE. UU. Requeriría que las plataformas de redes sociales brinden a los usuarios la opción de desactivar los algoritmos que utilizan las empresas de tecnología para organizar las fuentes de noticias de las personas.

El senador John Thune, republicano por Dakota del Sur, patrocinador del proyecto de ley, le pidió a la denunciante de Facebook Haugen que describiera los peligros de la clasificación basada en el compromiso durante su testimonio ante el Congreso a principios de este mes.

Dijo que hay otras formas de clasificar el contenido, por ejemplo, por la calidad de la fuente o cronológicamente, que servirían mejor a los usuarios. La razón por la que Facebook no los considerará, dijo, es que reducirían el compromiso.

“Facebook sabe que cuando seleccionan el contenido ... pasamos más tiempo en su plataforma, ganan más dinero”, dijo Haugen.

Los documentos filtrados de Haugen también revelan que un número relativamente pequeño de usuarios anti-vacunas de Facebook son recompensados con grandes páginas vistas bajo el sistema de clasificación actual de la plataforma tecnológica.

La investigación interna de Facebook presentada el 24 de marzo advirtió que la mayor parte del “contenido problemático de la vacuna” provenía de un puñado de áreas en la plataforma. En las comunidades de Facebook donde la desconfianza por las vacunas era mayor, el informe fijó el 50 por ciento de las páginas vistas en contra de las vacunas en solo 111, o 0.016 por ciento, de las cuentas de Facebook.

Ese mismo día, el Centro para la Lucha contra el Odio Digital publicó un análisis de las publicaciones en las redes sociales que estimó que solo una docena de usuarios de Facebook fueron responsables del 73 por ciento de las publicaciones contra las vacunas en el sitio entre febrero y marzo.

Fue un estudio que los líderes de Facebook dijeron al público en agosto que era “defectuoso”, a pesar de la investigación interna publicada meses antes que confirmó que un pequeño número de cuentas impulsa el sentimiento contra las vacunas.

A principios de este mes, una encuesta de AP-NORC encontró que la mayoría de los estadounidenses culpa a las empresas de redes sociales, como Facebook, y a sus usuarios por la desinformación.

Pero Ahmed dijo que Facebook no debería simplemente cargar con la culpa por ese problema.

“Facebook ha tomado decisiones que han llevado a que las personas reciban información errónea que les provocó la muerte”, dijo Ahmed. “En este punto, debería haber una investigación de asesinato”.

También lee: