OpenAI desmantela equipo interno dedicado a garantizar el buen comportamiento de sus modelos IA

OpenAI confirmó la disolución de su equipo interno dedicado a la alineación de sistemas de IA, responsables de hacer que los modelos fuesen “seguros, confiables y consistentemente alineados con valores humanos”, mientras su antiguo líder, Josh Achiam, asume el nuevo cargo de chief futurist.

***

  • El equipo de alineación, creado en septiembre de 2024, fue reasignado a otras áreas de la empresa.
  • Josh Achiam pasa de liderar la alineación a estudiar el impacto futuro de la IA y la AGI en la sociedad.
  • OpenAI atribuye la decisión a una reorganización interna habitual en empresas de rápido crecimiento.

 

OpenAI ha disuelto el equipo interno que se enfocaba en garantizar que sus sistemas de inteligencia artificial fueran “seguros, confiables y consistentemente alineados con valores humanos”, según confirmó la propia compañía a TechCrunch. Al mismo tiempo, el antiguo líder de esa unidad fue designado en un nuevo cargo.

La noticia fue reportada inicialmente por Platformer. Posteriormente, OpenAI confirmó que los miembros del equipo ya fueron reasignados a otras funciones dentro de la organización.

El equipo en cuestión se formó en septiembre de 2024 como una unidad interna dedicada al trabajo en alineación. En el contexto de la industria de IA, la alineación es un campo amplio que busca asegurar que los sistemas actúen de acuerdo con los intereses humanos, incluso en escenarios complejos o adversariales.

En una publicación del blog de Alignment Research de OpenAI, la empresa describía su objetivo con claridad. “Queremos que estos sistemas sigan consistentemente la intención humana en escenarios complejos del mundo real y condiciones adversariales, eviten comportamientos catastróficos y permanezcan controlables, auditables y alineados con valores humanos”, señala el texto citado.

Una oferta laboral publicada por OpenAI para este equipo también detallaba su misión. Allí se explicaba que la unidad se dedicaba a la investigación en IA enfocada en “desarrollar metodologías que permitan que la inteligencia artificial siga de manera robusta la intención humana en una amplia gama de escenarios, incluyendo aquellos que son adversariales o de alto riesgo”.

El nuevo rol de Josh Achiam

El miércoles, Josh Achiam, quien lideraba el equipo de alineación, publicó un blog explicando su nuevo cargo como chief futurist de OpenAI. En su mensaje, describió el alcance de su función dentro de la compañía.

“Mi objetivo es apoyar la misión de OpenAI, asegurar que la inteligencia artificial general beneficie a toda la humanidad, estudiando cómo cambiará el mundo en respuesta a la IA, la AGI y más allá”, escribió Achiam.

La mención explícita a la AGI, o inteligencia artificial general, es relevante. Dentro del sector tecnológico, la AGI se refiere a sistemas con capacidades cognitivas comparables o superiores a las humanas en múltiples dominios.

Achiam también señaló que colaborará con Jason Pruet, un físico que forma parte del personal técnico de OpenAI. Sin embargo, no quedó claro si el nuevo chief futurist contará con un equipo propio bajo su dirección.

A pesar del cambio formal, el sitio web personal de Achiam todavía lo presenta como jefe de Mission Alignment en OpenAI. Allí se describe su interés en garantizar que “el futuro a largo plazo de la humanidad sea bueno”. Su perfil de LinkedIn indica que ocupaba el cargo de Head of Mission Alignment desde septiembre de 2024.

Reasignaciones internas y reorganización

Un portavoz de OpenAI explicó que el resto del equipo de alineación, compuesto por seis o siete personas, fue reasignado a distintas partes de la compañía. El vocero no pudo precisar en qué áreas específicas fueron integrados, pero aseguró que continúan trabajando en tareas similares.

La empresa atribuyó la disolución del equipo a reorganizaciones rutinarias que suelen ocurrir en compañías de rápido crecimiento. En el sector de IA, donde el ritmo de desarrollo es acelerado, estos ajustes estratégicos son frecuentes.

No es la primera vez que OpenAI modifica su estructura interna en temas de seguridad y alineación. La compañía ya había formado en 2023 un equipo denominado “superalignment team”, enfocado en estudiar amenazas existenciales de largo plazo asociadas a la IA.

Ese equipo fue disuelto en 2024. Con la reciente decisión, OpenAI vuelve a reconfigurar su aproximación organizacional frente a los riesgos y desafíos que implica el desarrollo de sistemas avanzados.

Contexto más amplio en la industria

La alineación se ha convertido en uno de los temas centrales dentro del debate sobre IA. Investigadores y reguladores discuten cómo asegurar que modelos cada vez más potentes actúen dentro de marcos éticos y legales claros.

Las preocupaciones incluyen desde errores operativos hasta posibles comportamientos adversariales o impactos sistémicos. La industria tecnológica enfrenta presiones regulatorias crecientes para demostrar mecanismos de control, auditoría y gobernanza.

En este escenario, la decisión de OpenAI podría interpretarse como un ajuste estratégico más que como un abandono del trabajo en alineación. Según el portavoz citado por TechCrunch, los miembros del equipo siguen involucrados en tareas relacionadas con ese ámbito, aunque bajo estructuras distintas.

Por ahora, la compañía no ha ofrecido detalles adicionales sobre cómo integrará formalmente la investigación en alineación dentro de su organigrama futuro.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público