Javier Murillo

Hey, Google, en la IA la autorregulación no basta

El columnista asegura que la tecnología nos ganó, pues ha rebasado reglas sociales y marcos legales para beneficio de personajes que ven por sus intereses.

Que ciencia y tecnología van más rápido que las leyes es un hecho al que no debemos resignarnos; conformarnos con "mecanismos de autorregulación" es peligrosísimo.

Esfuerzos corporativos como el de Google, que el 7 de junio publicó su lista de principios para el manejo de la Inteligencia Artificial (IA) ilustran el caso: pone el ojo público en acciones políticamente correctas y deja en la oscuridad cuestiones vitales.

Lo que no está castigado está permitido. Y ese espacio es tan grande que ha sido aprovechado para construir imperios. Pregúntele a Zuckerberg.

Claro que el dueño de Facebook, así como Sundar Pichai, el CEO de Google, no son los únicos. Si hoy armamos una mesa de gente pensante y colocamos todos los reglamentos de redes y equivalentes para que los analicen, verían que en realidad se tratan de reglas diseñadas para favorecer los intereses de cada corporativo.

Me explico: supongamos que estamos en la década de los 80 del siglo pasado. Que tenemos un rollo de fotos y lo llevamos al centro de revelado. Ahí nos dicen que harán el trabajo gratis, pero que a cambio podrán usar esas fotos como ellos consideren pertinente. ¿Lo habrías permitido? Seguramente no. Pero hoy así funcionan nuestras redes. Lo peor: nosotros damos nuestro consentimiento.

Lo permitimos porque la tecnología nos ganó. Ha rebasado reglas sociales y marcos legales para beneficio de personajes que ven por sus intereses.

¿Cuál sería la regulación ideal en la era de la IA? Una elaborada por un grupo multidisciplinario, en el que estén representadas empresas, pero también organismos internacionales, gobiernos y expertos en tecnología y sociedad, así como filósofos, pero sobre todo los usuarios. Un órgano mundial.

Por eso Elon Musk, líder de Tesla, se acercó a la ONU para crear un capítulo acerca de la IA. De otra forma, cualquier decisión es unilateral y se basa en los intereses de quien pone las reglas. Como es hoy el caso de Google.

Solo así podremos garantizar una auténtica normatividad en beneficio humano. Porque lo que urge establecer, en cada rincón del planeta, es que no permitamos, jamás y por ningún concepto, que las máquinas tengan sentido de autopreservación. Si se les concede entonces sí comenzaría una guerra en la que no hay defensa posible para la humanidad.

En el pronunciamiento de Google no hay nada al respecto. Dicen que no construirán IA que pueda dañar a humanos. Pero nada de principios de autopreservación. Lo que no está expresamente prohibido está permitido. La guerra no es por los algoritmos. La guerra es por la supervivencia.

*Fundador y Presidente del Consejo de Metrics

COLUMNAS ANTERIORES

Las lecciones del ciberataque a Coppel
La silenciosa amenaza de la desinformación digital

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.