Tech

OpenAI: Esto sabemos sobre su descubrimiento de una IA que ‘ponía en riesgo a la humanidad’

Los trabajadores advertían a OpenAI hace días sobre los riesgos de una inteligencia artificial potente que, de ser mal utilizada, ponía en riesgo a la humanidad.

OpenAI tendría investigaciones sobre inteligencias artificiales más potentes a las ya conocidas. (Bloomberg)

Luego del drama de OpenAI en los últimos días tras el despido y después recontratación de Sam Altman como CEO, así como las amenazas de renuncias masivas de los trabajadores y el intento de imposición de una junta directiva, se reveló que los investigadores de la empresa lanzaron una carta anunciando los riesgos referentes a nuevos avances en inteligencia artificial.

La información revelada por trabajadores de OpenAI y retomada por diarios como el Australian Financial Review apuntan a que se entregó una carta el jueves 16 de noviembre, antes de que despidieran a Altman, quien se oponía a que OpenAI se transformara de una organización sin fines de lucro centrada en la investigación científica de la inteligencia artificial a una empresa que construye productos.

Los trabajadores dijeron en la carta que los avances encontrados en el desarrollo de la inteligencia artificial suponían “una amenaza a la humanidad”, según lo que recogió el diario australiano, además de que se señalaba que los avances obtenidos hasta antes de la destitución de Sam Altman eran clave en aspectos como la inteligencia artificial regenerativa.

OpenAI, aunque no hizo comentarios, habría reconocido la existencia de una carta, así como de la notificación de un proyecto llamado Q-Star, mismo que podría ser un avance en el desarrollo de la inteligencia artificial general, que consiste en la operación de sistemas autónomos que llegan a superar a humanos en la realización de tareas que son económicamente valiosas.

Con este proyecto las inteligencias artificiales desarrolladas mediante el modelo Q-Star podían superar diversos problemas matemáticos derivado de sus recursos informáticos.

Esta información habría generado optimismo en los trabajadores sobre el desarrollo de inteligencias artificiales más poderosas; sin embargo, la información en la carta apunta a que es necesario comprender el riesgo de comercializar los avances sin comprender las consecuencias.

Se espera que con el regreso de Sam Altman los planes de una reestructura en OpenAI no sean como se planeaba antes de su despido, además de que la mesa directiva anunciada por la empresa esté lo suficientemente capacitada para la continuidad responsable en las investigaciones sobre inteligencia artificial.

También lee: