Bloomberg

¿Facebook realmente nos usa como ratas de laboratorio?

Pese a la noticia sobre el experimento que llevó a cabo uno de los ingenieros de la empresa durante una semana, se conoce que Facebook manipula, como política de la red social, lo que sus usuarios ven normalmente, además de que éstos tienen la capacidad para elegir que así sea o no.

Qué escándalo: Facebook tuvo la temeridad de llevar a cabo un experimento con sus usuarios sin decírselo y ahora los resultados se publican en The Proceedings of the U.S. National Academy of Sciences. En realidad, nadie debería sorprenderse.

Durante una semana de 2012, el científico de planta de la red social Adam Kramer y dos colaboradores utilizaron algoritmos para modificar los feeds de noticias de 689 mil usuarios angloparlantes de Facebook.

Redujeron la cantidad de publicaciones que contenían palabras "positivas" y "negativas", rastrearon las publicaciones de sus usuarios 'ratas de laboratorio' y descubrieron que su estado de ánimo se veía influenciado por el de las noticias. El término, conocido entre los psicólogos que estudian las comunicaciones del mundo real, es "contagio emocional".

Si el experimento de una semana de duración de Kramer parece escandaloso, lo que Facebook hace todos los días es monstruoso. Un algoritmo llamado EdgeRank califica cada posteo con una serie de criterios, tales como la frecuencia con que el dueño de un 'news feed' interactúa con su autor y la calidad de esa interacción (un comentario es más valioso que un "me gusta"). Los posteos de más alto puntaje van al comienzo del feed. Es por eso que un usuario típico no ve todo lo que están publicando sus amigos, sólo lo que Facebook decide que le gustaría ver, más publicidad de paga (que también supuestamente está dirigida). Uno puede hacer pequeños cambios en la configuración para que los posteos aparezcan en su orden "natural", pero pocas personas se toman la molestia de hacerlo, tal como casi nadie lee la política de uso de datos de Facebook: oculta en medio de esas 9 mil palabras, hay una oración que dice que la investigación es un uso legítimo.

En otras palabras, en Facebook, uno puede optar por rechazar que una máquina decida qué contenido le resultará interesante. Twitter, en cambio, permite a los usuarios dar autorización utilizando el feed llamado Discover. Esta última táctica parece más honesta pero es menos efectiva desde el punto de vista de la comercialización.

Facebook como política manipula lo que ven los usuarios. Los académicos podrán discutir si los usuarios dan su consentimiento informado para esa utilización de sus datos, pero la experiencia común sugiere que muchas personas eligen seguir no informadas. Otros se dan cuenta de que están siendo rastreados, y de que son objeto de experimentos, por empresas como Facebook y Google y no les importa. No es inusual en la red social. "¿Dirige un sitio web, mide todo, hace cambios basados en las mediciones? ¡Felicitaciones, usted está realizando un experimento psicológico!" tuiteó el capitalista de riesgo Marc Andreessen, que forma parte del directorio de Facebook.

Las personas a quienes esto les disgusta tienen la opción de no usar Facebook y pasarse a una red que sea menos invasiva en sus intentos de influir en su base de usuarios. Es como desenchufar el televisor o dejar de fumar: tan fácil y, sin embargo, tan difícil.

La buena noticia para quienes de todos modos quieren su dosis de redes sociales es que Facebook sólo tiene una capacidad limitada para influir en las emociones. "Al fin de cuentas, el impacto real en las personas que participaron en el experimento alcanzó la magnitud mínima para ser detectado estadísticamente: el resultado fue que las personas emitían un promedio de una palabra emocional menos, por cada mil palabras, en la semana siguiente", explicó Kramer en un post en Facebook el domingo.

Por ser la persona que diseñó el experimento, Kramer es demasiado optimista respecto de él. El algoritmo utilizado para buscar palabras positivas y negativas, Buscador Lingüístico y Contador de Palabras (LIWC, por sus siglas en inglés), es uno de muchos intentos primitivos de trazar un mapa del lenguaje natural con criterios matemáticos. Estos programas ven la palabra "feliz" como positiva y la palabra "triste" como negativa pero no tienen la capacidad de detectar el sarcasmo, algo que debería ser fundamental al analizar el contenido de las redes sociales, y tienen una comprensión limitada de las construcciones gramaticales que a veces invierten el significado de las palabras. El psicólogo John Grohol escribió que el algoritmo LIWC evaluaría la oración "No tengo un buen día" como neutral porque contiene tanto "buen" como "no".

Como ocurre con muchos de los datos de Facebook, que la enorme red no tiene capacidad para analizar, entra basura y sale basura.
Si la oficina de Investigación del Ejército de los Estados Unidos, realmente participó en el financiamiento de la investigación -como informó inicialmente la Universidad Cornell (para luego corregirse y decir que no había habido financiamiento externo), una de cuyas profesoras, Jamie Guillory, coautora del trabajo con Kramer-, señaló que los militares no tuvieron acceso a una poderosa herramienta para modificar el estado de ánimo. Quizá a las personas les dé pereza leer los documentos sobre la política empresarial y resistirse a la manipulación, pero son más complicadas que sus cuentas de Facebook.

También lee: