Una carta enviada por algunos empleados al consejo advertía sobre importantes descubrimientos ligados al proyecto Q* que podrían ser riesgosos para la humanidad.
Dicen que después de la tormenta viene la calma. Tras una semana de turbulencias en OpenAI las cosas parecen haber vuelto a la normalidad en la que es hoy, la empresa más importante del mundo en el campo de la inteligencia artificial (IA).
El viernes pasado surgió la noticia de que Sam Altman, el CEO de la empresa creadora de ChatGPT, había sido destituido luego de que el consejo declarara en un comunicado que «ya no tenía confianza en su capacidad para liderar OpenAI».
Como consecuencia de la salida de Altman, Greg Brockman, presidente de la compañía presentó su renuncia y al poco tiempo se anunció que los dos ejecutivos se sumarían a Microsoft para formar parte de una nueva unidad dedicada al desarrollo de la IA.
Posteriormente se supo que más de 700 empleados de OpenAI habían firmado una carta abierta exigiendo que Altman volviera a ser nombrado CEO de la empresa y amenazando con renunciar de manera masiva si esto no sucedía.
Al final terminó ganando la presión de los empleados y Sam Altman volvió a ser nombrado CEO de OpenAI a los cinco días de haber sido destituido. Brockman también regresó a su puesto y la empresa nombró a un nuevo consejo para reemplazar al anterior.
¿Por qué corrieron a Sam Altman? Esto es lo que sabemos
Aunque existe poca claridad en torno a lo sucedido entre Altman y el consejo anterior, Reuters ha dado a conocer que días antes de su salida, algunos trabajadores de la empresa enviaron al consejo una carta en la que advertían de nuevos y poderosos hallazgos en torno a la IA que podían poner en riesgo a la humanidad.
Aunque el medio no habla del contenido real de la carta, explica que esta fue un factor decisivo para tomar la decisión de remover a Altman de su puesto.
La carta se refiere a un proyecto llamado Q* (se pronuncia Q-Star) que pudiera haber hecho hallazgos importantes en torno a la búsqueda de la llamada inteligencia artificial general (IAG), un tipo de IA que posee capacidades cognitivas y mentales comparables o similares a las capacidades humanas en una amplia gama de tareas intelectuales.
Existen muchas preocupaciones y consideraciones éticas sobre cómo debería de desarrollarse y utilizarse este tipo de IA. Algunos expertos consideran que, si una IAG es capaz de generalizar, aprender y comprender, podría llegar por sí misma a la decisión de que los humanos somos peligrosos y por ende buscar eliminarnos.
Según Reuters la semana pasada Sam Altman participó en un evento en San Francisco en el que dijo: «Cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala, cuando de alguna manera apartamos el velo de la ignorancia y llevamos adelante la frontera del descubrimiento; tener la oportunidad de hacer eso es el honor profesional de toda una vida».
Sam Altman fue despedido un día después de haber hecho está declaración.
Artículo tomado de Entrepreneur, lea el original aquí.