¿La herramienta publicitaria de Facebook engaña a los votantes?
menu-trigger
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

¿La herramienta publicitaria de Facebook engaña a los votantes?

COMPARTIR

···
menu-trigger

¿La herramienta publicitaria de Facebook engaña a los votantes?

bulletLa función de transparencia de la red social bloquea a los usuarios que se vuelven demasiado curiosos.

Bloomberg Por Vernon Silver
29/03/2018
Facebook
Al registrarte estás aceptando el aviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.

Los usuarios de Facebook que están preocupados de que los anunciantes recolecten sus datos personales para manipularlos con propaganda política tienen una herramienta poderosa para romper el hechizo: un botón en la esquina de cada anuncio de Facebook que dice "¿Por qué estoy viendo esto?".

En lugar de proporcionar ayuda a los usuarios, esta herramienta de Facebook suele ser engañosa y a veces falsa, razones por las cuales han sido objeto de robo de información, de acuerdo a pruebas de Bloomberg Businessweek. Un nuevo estudio académico que analizó miles de anuncios prueba que las explicaciones de Facebook han omitido “detalles clave que permitirían a los usuarios comprender y potencialmente controlar la forma en que se dirigen”.

Para Mark Zuckerberg, como cofundador, y sus reguladores del gobierno, quienes lidian con el escándalo de Cambridge Analytica y presuntas intromisiones en las elecciones de 2016, el botón "¿Por qué estoy viendo esto?", de Facebook es una innovación prometedora.

Al dejar que los usuarios sepan por qué los anunciantes los han elegido, esta opción tiene el potencial de reventar burbujas partidistas que aíslan a los votantes y expone el micro-objetivo utilizado para dividir al electorado. También es una ventana al corazón de lo que realmente es Facebook como empresa: una compañía publicitaria que hace dinero con los anunciantes que emplean datos de usuarios para apuntar a su público.

Por ahora la promesa de transparencia del botón corre el riesgo de ser una noticia falsa en sí misma, precisamente en el momento en que las elecciones de noviembre de 2018 de los Estados Unidos se avecinan y se vislumbra como una oportunidad de redención de la compañía.

Observé las deficiencias al tiempo que me concentraba en las elecciones italianas de este mes, como una carrera en seco para los exámenes parciales de Estados Unidos. El plan era tirar una carnada para la guerra de la información y luego ver a dónde me llevarían los algoritmos y la configuración del anuncio.

El primer paso fue hacer clic en "Me gusta" en la página de un partido antiinmigrante; ésta era la primera vez que lo hacía para cualquier grupo partidario. Cerca de una hora después, conseguí algo: apareció un anuncio para un partido neofascista aún más de derecha. El plan parecía estar funcionando.

Para confirmar que me habían arrastrado a las franjas de Facebook por mi nueva preferencia, hice clic en un botón en el borde del anuncio que decía: "¿Por qué estoy viendo esto?".

La caja que apareció proporcionó la explicación menos transparente posible. Me habían atacado porque el candidato en el anuncio "quiere llegar a personas de 13 años en adelante" en la región italiana que incluye a Roma. Facebook simplemente había escupido el requisito de edad mínima del sitio y la ubicación de mi computadora.

Resultó que lo que estaba viendo anecdóticamente ya estaba confirmado con datos. Dos semanas antes de la votación en Italia, un grupo de investigadores europeos y estadounidenses presentaron un documento que examinaba la función a escala global. Colocaron miles de anuncios propios dirigidos a usuarios voluntarios de Facebook que habían instalado el software de seguimiento en sus computadoras.

El código recogió las explicaciones que dio Facebook para los anuncios en el extremo receptor. Como los propios investigadores fueron los anunciantes, pudieron comparar los parámetros de orientación reales con los que Facebook ubicó a los usuarios.

"En todos nuestros experimentos, encontramos constantemente que las explicaciones de Facebook son incompletas y a veces engañosas", escribieron (cursiva incluida) de su investigación, que fue financiada en parte por la National Science Foundation del Gobierno de Estados Unidos.

Sus datos apuntaban a que Facebook proporcionaba a los usuarios los criterios de selección más amplios ("estás en Italia"), en lugar de los más determinantes ("te gustan los sitios web de extrema derecha"), aunque era imposible saber cómo se construyó la complejidad de la función.

"Si este es, de hecho, el caso, esta opción abre la puerta para que los anunciantes maliciosos ofusquen su verdadera orientación al incluir siempre un atributo muy popular", escribieron los grandes grupos de quienes acceden a Facebook desde dispositivos móviles.

Matt Hural, un gerente de producto en Facebook, dijo que es incorrecto concluir que la función prioriza los atributos más grandes o más comunes. "Consideramos muchas señales para decidir qué información le resultará más útil a una persona, por lo que lo que se muestra puede variar mucho", señaló en un comunicado.

Para los científicos, la función "¿Por qué estoy viendo esto?" es particularmente importante para entender cómo se usa o si se está usando mal el sistema de Facebook, dice uno de los autores, el profesor Alan Mislove de la Universidad Northeastern de Boston. "Es uno de los pocos mecanismos de transparencia que tienen", dice. "Crédito donde se adeuda el crédito. Ciertamente apreciamos que estén haciendo algo ".

Hural, de Facebook, dijo que en las investigaciones y pruebas de la compañía las personas han dicho que prefieren menos razones y, por ello, se entregó un anuncio para que puedan ajustar su configuración para adaptar mejor los anuncios que ven. "Diseñamos '¿Por qué estoy viendo esto?' Para hacer exactamente eso. Si bien hay más trabajo por hacer, este nivel de transparencia para los anuncios es un área en la que creemos que lideramos la industria publicitaria", dijo.

Facebook creó la herramienta en 2014 para dar a los usuarios más control sobre los tipos de anuncios que se envían a sus pantallas. Esta herramienta está acompañada por un menú de áreas de interés de Facebook atribuido a los usuarios. Si alguien recibe anuncios de tiendas de electrónica porque ha estado buscando un televisor, podría eliminar "televisiones" de su perfil de preferencias publicitarias.

La transparencia ha pagado dividendos inesperados. El año pasado, los datos compilados por ProPublica para un proyecto sobre la colocación de anuncios políticos expusieron cómo las empresas excluían a los usuarios mayores de los anuncios de empleo en Facebook, lo que aumenta la preocupación sobre la discriminación por edad.

Para los votantes, el peligro expuesto en las elecciones de 2016 en Estados Unidos fue que no podían saber si (o cómo) los estaban discriminando. En los días previos a la votación de 2016, Bloomberg Businessweek informó por primera vez que la campaña de Trump tenía como objetivo segmentos específicos de la nación con mensajes personalizados.

La campaña usó "publicaciones oscuras" de Facebook -publicaciones no públicas cuya audiencia controlaba la campaña- para apuntar a votantes negros con una animación de la sugerencia de 1996 de Hilary Clinton de que algunos hombres negros son "súper depredadores".

La campaña de Trump también intentó reducir la participación negra en el vecindario Little Haiti de Miami con mensajes específicos sobre las operaciones controvertidas de la Fundación Clinton en Haití.

Con las elecciones legislativas de este año, a ocho meses de distancia, Zuckerberg ha respondido con nuevas medidas de transparencia destinadas a mostrar a los usuarios qué está detrás de los anuncios que están viendo, yendo más allá del botón "¿Por qué estoy viendo esto?".

Facebook está probando el nuevo recurso en Canadá y planea tenerlo funcionando para el verano en EU. El plan es que los usuarios puedan acceder a un archivo de todos los anuncios políticos y quienes lo pagaron.

Sin embargo, no hay ningún anuncio de que Facebook hará que la orientación sea más transparente, o que la información que proporcionará a los usuarios será completamente veraz. De hecho, un aspecto del botón con el que nos topamos los investigadores podría, en el mejor de los casos, ser descrito como una descarada distracción y, en el peor de los casos, una fabricación.

Los usuarios obtienen una respuesta en dos partes de por qué están viendo un anuncio. Me encontré con esto cuando apareció un anuncio en mi página para una escuela privada en Miami a la que algunos amigos han asistido y matriculado a sus hijos. Cuando hice clic en el botón, la primera mitad de la explicación de Facebook fue acertada: el grupo de alumnos de la escuela quería llegar a las personas cuyos amigos les gusta su página. Ese fui yo.

Pero luego hubo una segunda mitad que no sonaba verdadera. "Puede haber otras razones por las que está viendo este anuncio, incluyendo que Ransom Everglades Alumni quiere llegar a personas de 18 años o más que viven en Italia", decía.

Como sospechaba, y los investigadores confirmaron, cuando Facebook da a los usuarios una segunda explicación posible, simplemente proporciona la ubicación actual del usuario, incluso si esa no era una variable solicitada por el anunciante.

"Esto muestra que Facebook agrega atributos potenciales a las explicaciones de anuncios que los anunciantes nunca especificaron en su orientación, lo que los hace engañosos", apuntaron los investigadores.

Hay posibles soluciones (mucho tiempo) antes de que los estadounidenses vayan a las urnas a votar. Si Facebook decide que puede darse el lujo de seguir retirando el telón de sus anunciantes, puede decirle a los usuarios los criterios más estrictos utilizados para dirigirse a ellos, no solo el más amplio. O incluso podría revelar todos los motivos.

Facebook también puede eliminar las barreras a la apertura, como la opción que me bloqueó por ser demasiado curioso. A medida que avanzaba por los anuncios políticos italianos, Facebook me desconectó repetidamente de la función "¿Por qué vi esto?" por hacer clic en más de 10 anuncios en unos minutos.

Hural, el gerente de producto de Facebook, dijo que el bloqueo es parte de "esfuerzos estándar de protección de privacidad". Me permitió volver después de un período de menos de media hora, convirtiéndolo en una molestia menor, aunque simbólica.