Javier Murillo

Innovar… pero con seguridad

Uno de los grandes retos para nuestra sociedad es el control absoluto de los datos y las revisiones periódicas de la aplicación de la IA en cualquier área. Existe el peligro de no comprender totalmente cómo se alcanzan los resultados del aprendizaje automático.

Si me lo preguntan, es muy importante avanzar hacia el desarrollo de más y mejores aplicaciones de la Inteligencia Artificial (IA), pero que su uso mantenga parámetros éticos y de seguridad ¡lo es aún más!

Y es que, querido lector, estará de acuerdo conmigo en que el uso y desarrollo de programas de IA en grandes potencias, como Estados Unidos, es imparable y para muestra, hay más que un botón. El Departamento de Defensa usa IA para el mantenimiento predictivo en aviones y autos. Las agencias civiles han experimentado con la automatización de procesos robóticos. A comienzos de este año, Donald Trump firmó una orden ejecutiva que amplía los recursos económicos para fomentar la investigación y el desarrollo de herramientas IA en el gobierno.

Al tiempo en que se desborda el desarrollo, comienzan a surgir planteamientos a futuro sobre la administración en el uso de la tecnología. Chris Sexsmith, líder de innovaciones emergentes de la multinacional estadounidense de software Red Hat, asegura que ha llegado el punto en que las empresas están cada vez más preocupadas por definir cómo administrar los miles de millones de datos de manera segura y efectiva. Y, también, cómo se pueden evitar algunas de las trampas de la IA en este proceso.

Algunas agencias basadas en la investigación revisan la idea de los usos éticos de la IA y los datos. La definición oficial de gobierno sobre el caso aún está por llegar. En otras latitudes 43 países firmaron un conjunto de principios común sobre IA, a través de la OCDE. Entre los acuerdos destaca que la IA debe estar al servicio de las personas y del planeta, impulsando un crecimiento inclusivo, el desarrollo sostenible y que los sistemas de IA deben diseñarse para que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad.

Una de las mayores preocupaciones entre los expertos es cómo descifrar la "caja negra" (el conjunto de algoritmos que llegaron a una conclusión determinada). Una vez que una IA ha analizado los datos y proporcionado una salida, que pudiera o no llegar a ser del todo justa, es difícil determinar cómo se llegó a esa respuesta.

Hay esfuerzos en este sentido como el de IBM, que presentó una tecnología que da nueva transparencia en IA. El software detecta automáticamente el sesgo y explica cómo el robot toma decisiones ¡al mismo tiempo que se toman las decisiones!

Uno de los grandes retos para nuestra sociedad es el control absoluto de los datos y las revisiones periódicas de la aplicación de la IA en cualquier área. Existe el peligro de no comprender totalmente cómo se alcanzan los resultados del aprendizaje automático. El control de nuestros datos en un entorno seguro de código abierto no es un tema menor. Se lo aseguro.

COLUMNAS ANTERIORES

Empoderamiento femenino en la ciencia de datos
La disputa de Musk contra OpenAI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.