Javier Murillo

Sesgos, causados por humanos, no por máquinas

Mientras la mayoría de las personas son castigadas por los algoritmos de Facebook, usuarios de alto nivel sí pueden incitar a la violencia o propagar noticias falsas y salir impunes.

Esta semana el Wall Street Journal publicó un artículo llamado ‘Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt’, en el que revela que, como usuarios, no todos somos iguales para Facebook, que con tal de evadir quejas de personajes de alto perfil, que eventualmente se podrían convertir en mala prensa para la empresa, la red social permite a celebridades ‘portarse mal’, esto mediante una aplicación que se llama XCheck o Cross Check.

Este tema tiene muchas aristas, sin embargo una que es importante observar es el trato diferenciado que existe para los usuarios de los gigantes digitales. Claramente esta es una violación flagrante de la empresa a sus propias reglas y nos demuestra que con tal de no verse afectada en su reputación es capaz de sesgar arbitraria y manualmente sus propios algoritmos, aunque el efecto de esta acción pueda terminar mal, como fue el caso de la publicación de Facebook que hizo Donald Trump y que la empresa decidió mantener arriba: “Cuando comienza el saqueo, comienza el tiroteo”.

Lo que significa que usuarios de alto nivel pueden incitar a la violencia o propagar noticias falsas en dicha red social y salir impunes de la suspensión temporal, además del eventual bloqueo que persigue al resto de los usuarios. Ahora, estamos hablando de un tema contextual, porque el hecho de tener una crisis de reputación no necesariamente afecta directamente al negocio central de Facebook, imaginemos los sesgos que sucederán con las herramientas publicitarias, que sí son el negocio central de la red social. Estamos viendo solo la punta del iceberg.

Los algoritmos son creados a imagen y semejanza de quien los desarrolla y las diferencias algorítmicas se pueden distinguir fácilmente entre algoritmos desarrollados en el mundo occidental y oriental, lo que es castigado de un lado, se tolera del otro, pero esos sesgos finalmente se pueden ajustar y una vez que eso sucede eventualmente discriminan menos que cualquier humano, al ser máquinas no diferencian, el problema está cuando, por cualquier razón, un humano tiene la capacidad de modificar las propias reglas del algoritmo, como fue el caso Trump y Facebook.

Lo hacen porque pueden y no hay ninguna ley que se los prohíba, porque técnicamente no están violando ninguna regla, pero al sesgar manualmente sus algoritmos discriminan de forma discrecional, lo que se pudo comprobar gracias a la investigación del WSJ, que hoy nos hace un poco más conscientes, pero no necesariamente más seguros, porque, como usuarios comunes, no tenemos defensa algorítmica o humana.

COLUMNAS ANTERIORES

Empoderamiento femenino en la ciencia de datos
La disputa de Musk contra OpenAI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.