Javier Murillo

El razonamiento humano, clave para evitar la datocracia

Con el dominio de los datos en múltiples sectores relevantes se corre el riesgo de que el juicio humano sea reemplazado por los algoritmos.

El manejo de los datos, con sus algoritmos, y la inteligencia artificial, con su ramificación en lo que en español llamamos el aprendizaje automatizado (machine learning), llegaron a agilizar, en múltiples áreas, la toma de decisiones; sin embargo, la confianza ciega frente a las nuevas tecnologías, que nos facilitan tantas cosas con sus métricas, puede llegar a engendrar una serie de problemas e, incluso, errores graves para individuos y corporaciones.

Hace dos años, durante el Foro Económico Mundial, se realizó un intercambio de ideas bajo el nombre de ‘El ascenso de la datocracia’, en el cual participaron Hilary Cottam, innovadora en el diseño de políticas públicas; Eric Yu, especialista en comunicación y tecnología; Frida Polli, especialista en neurociencia y ciencia de datos, cofundadora de Pymetrics, así como Igor Tulchinsky, fundador de WorldQuant.

Ahí, los especialistas del big data intercambiaron conocimientos y experiencias sobre esta realidad, sus implicaciones y riesgos; asimismo, advirtieron sobre la datocracia (data-ocracy, en inglés), es decir, el dominio de los datos en múltiples sectores relevantes en la toma de decisiones que definen el rumbo de rubros estratégicos, y con la que se corre el riesgo de que el juicio humano sea reemplazado por los algoritmos, y que estos terminen deviniendo en aquéllos que gobiernan.

Los participantes hicieron mucho énfasis en esos peligros de sobreestimar los datos y no tamizarlos bajo el razonamiento humano.

Uno de los campos en los que la experiencia demuestra yerros a evitar es el de los programas de contratación y despido. Ahora, con el abuso en las nuevas tecnologías, muchas empresas descartan candidatos porque carecen de un título en particular, no provienen de una institución de prestigio o incumplen con parámetros generales, y si bien un programa automatizado puede dejar de lado los prejuicios de los que algunos reclutadores acaso son incapaces de desprenderse (por decidir una contratación o despido según el género, la raza, el acento, la vestimenta), esto no evita que se pueda incurrir en determinaciones desafortunadas en perjuicio del postulante.

“No se trata de crear tecnología para detectar a los que tienen potencial frente a los que no. Se trata de buscar en qué área las personas pueden tener potencial”, resaltó Hilary Cottam, reconocida como un importante liderazgo juvenil mundial, y destacada activista en el Centro para la Quinta Revolución Social.

Las áreas de medicina, educación, programas sociales y las políticas públicas de los gobiernos democráticos, son cada vez más dependientes de las métricas al alcance, y por ello no es raro detectar determinaciones no sólo equivocadas, sino frecuentemente injustas, que pueden asumirse cuando no se logra aplicar una correcta y profesional lectura de los datos.

La misma Cottan, a manera de corolario para ese desafío, aclaró que los algoritmos y la inteligencia artificial los crean los humanos y son éstos quienes deben manejarlos. No pueden los gobiernos y corporaciones abandonarse a los datos (sin duda fundamentales en la vida de hoy), sin un análisis profesional y siempre bajo la responsabilidad social, la cual no debe perderse de vista nunca.

El autor es fundador y presidente del Consejo de Metrics.


COLUMNAS ANTERIORES

La guerra de los drones
La caída de Facebook

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.