menu-trigger
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

Sesgos en modelos de IA

COMPARTIR

···
menu-trigger

Sesgos en modelos de IA

20/01/2020

Por Edgar Aparicio

Actualmente una variedad de procesos, que van desde obtener recomendaciones personalizadas en nuestras listas de música hasta la toma de decisiones en el sistema de justicia en algunos países como Estados Unidos, se desarrollan con ayuda de la Inteligencia Artificial (IA). Así, modelos de aprendizaje automático (Machine Learning), un subcampo de la IA, analizan grandes conjuntos de datos y generan información que puede usarse para la toma de decisiones que, en mayor o menor medida, repercuten en la vida de las personas. En este sentido, ¿podemos confiar en las soluciones ofrecidas por la IA sin cuestionar la calidad de los datos que utilizan y los resultados que ofrecen estos modelos?

El riesgo de los sesgos

Entre 2014 y 2015, Amazon utilizó técnicas de IA para valorar los perfiles de sus candidatos y se dio cuenta de que el sistema no estaba calificando a los candidatos de manera neutral en cuanto al género. El modelo se capacitó con la observación de patrones en los currículos presentados a la empresa durante 10 años, por lo que los resultados reflejaron el dominio masculino en la industria de la tecnología. En otro ejemplo, Joy Buolamwini, informática y activista digital afroamericana, se enfrentó al sesgo algorítmico al trabajar con software genérico que no reconocía sus rasgos faciales, dándose cuenta de que los datos de entrenamiento de los sistemas de reconocimiento facial no eran representativos de la diversidad de rostros humanos.

¿Cómo mitigar los sesgos algorítmicos y transitar hacia el desarrollo de código más inclusivo?

Desde la Liga de la Justicia Algorítmica se trabaja en identificar el sesgo algorítmico, mitigarlo y evidenciarlo en sistemas de reconocimiento facial. Como parte de sus proyectos, crean series de datos de entrenamiento con espectros completos que reflejen de manera exhaustiva la diversidad humana, construyen plataformas que puedan identificar los sesgos, auditan el software existente y crean de manera intencional un código más inclusivo: el InCodign.

Por su parte, David Casacuberta, especialista en los impactos sociales y cognitivos de las TIC, enfatiza la necesidad de abrir un debate inclusivo en el que participen expertos en IA y Humanidades, distintos actores sociales y el público general. En última instancia, es necesario reconocer que existen decisiones de la esfera ética, política y social que deben ser consensuadas por un equipo de personas desde una comprensión holística de qué significa ser humano y de cuáles son los derechos y libertades básicas.

En línea con la necesidad de promover un debate público abierto e incluyente, en la coalición multisectorial IA2030Mx, se está cocreando la Agenda Nacional de IA para México; la discusión de nuevas propuestas se lleva a cabo a través de distintos Grupos de Trabajo temáticos, entre ellos Ética y Datos, Infraestructura Digital y Ciberseguridad, donde las preocupaciones expuestas en este texto tienen cabida.

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.