Opinión

¿Crees que los algoritmos son imparciales? Estás en un error, te pueden discriminar

24 noviembre 2017 5:0
 
1
 

 

algoritmo

Estamos viviendo una transición tecnológica que se basa en tres conceptos: el nivel de aptitud de una máquina, su libre albedrío y su capacidad de acción. La tecnología está avanzando a tal velocidad que progresivamente nos está llevando al punto en el que las máquinas tienen, cada vez más, la capacidad de realizar tareas complejas en forma autónoma y lo más interesante, es que son capaces de aprender y mejorar por sí mismas. A esto lo llamo La Era de la Independencia de las Máquinas.

Esta “independencia” se está dando gracias a varios factores críticos que han sucedido en el ámbito de la tecnología en los últimos años, pero principalmente a la capacidad de gestionar enormes cantidades de datos y procesarlos a través herramientas cuyos algoritmos matemáticos permiten a las máquinas escuchar, entender, contextualizar, ejecutar y aprender. A este ritmo de evolución, pronto estaremos hablando de máquinas que han desarrollado la capacidad de tener sentimientos. No debemos preocuparnos (aún) de que un día les instalen su propia alma, eso les costará más trabajo (espero).

Hasta el punto de aprendizaje y mejora continua de las máquinas, todo parecía ir extraordinariamente bien. Sin embargo, hace algunos años comenzaron a alzarse varias voces para denunciar, lo que al principio parecieron hechos aislados, pero que ante la diversidad de casos y lo contundente de las evidencias, generaron un movimiento en contra de la parcialidad identificada en los algoritmos de las plataformas automatizadas con inteligencia artificial más usadas en la actualidad. ¡Silicon Valley, tenemos un problema!

En un artículo que publicó el MIT Technology Review se dice “a nadie parece importarle la segregación por parte de los algoritmos, además las compañías que los desarrollan no parecen tener ningún interés en arreglarlos”. El artículo asegura que los algoritmos que se usan actualmente están influyendo en decisiones financieras y legales que afectan, entre otros, a usuarios solicitantes de créditos. “Aún es pronto para entender el sesgo algorítmico”, dijeron Kate Crawford (investigadora de Microsoft) y Meredith Whitaker (investigadora de Google), “Solo este año hemos visto más sistemas que tienen problemas y estos son solo los que se han investigado”. Si eso está pasando en Estados Unidos, imagínense en el resto del mundo.

Las implicaciones van más allá de lo que pensamos. Vamos a tomar como ejemplo el algoritmo de Facebook, sí, el que fue manipulado para hackear las elecciones de Estados Unidos. La obstinación de la red social por presentarnos “un mundo feliz” en el que nos muestra solo aquellos contenidos que “queremos ver” basados en nuestro comportamiento digital, nos mete en una burbuja donde se privilegian las publicaciones que tienen una mayor probabilidad de generar una reacción, incluyendo anuncios, ¡claro!

Esto representa una deliberada interferencia de la red social en nuestras preferencias, ya que toma decisiones que nosotros, por derecho, podemos y debemos tomar. Google no se queda atrás con su llamado “algoritmo de relevancia” que ha sufrido reveses legales en Europa por su comprobada parcialidad en temas sensibles (como el Brexit) y por no permitir el “derecho al olvido” de las personas (caso del Tribunal de Justicia de la Unión Europea), entre otros. Como humanidad estamos pasando de los editores humanos de medios tradicionales, a los editores robóticos basados en algoritmos desarrollados por los medios digitales, buscadores y aplicaciones.

En conclusión existe una anomalía desde la fuente del sistema, “todo se parece a su dueño”, o lo que es lo mismo, los ingenieros que desarrollan los algoritmos en cuestión, no pueden evitar “ser humanos” y programar características que benefician más a los que “son como ellos”. La matemática Cathy O’Neil denomina este tipo de segregación como: “oscuridad matemática” en la que estamos a merced de los científicos de datos y programadores, personas que tienen sus propios valores éticos y morales, y que no necesariamente son acordes con los nuestros. Estamos siendo sistemáticamente discriminados y manipulados, este debate está comenzando y parece que no nos quedará más que luchar por nuestros derechos como usuarios. 

*Fundador y Presidente del Consejo de Metrics.

Twitter:
@JavierMurillo
LinkedIn: javiermurilloacuna

También te puede interesar:
Lee esto o despídete de tener trabajo en el futuro
En las futuras guerras, las máquinas podrían decidir quién vive y quién muere