OpenAI lanza «Cyber», su ChatGPT de ciberseguridad, y quiere tu DNI y biometría para que puedas usarlo

La gran mayoría de las grandes empresas tecnológicas actuales están preocupadas por todo aquello relacionado con la ciberseguridad. De ahí que pongan buena parte de sus esfuerzos en mejorar la protección de sus clientes, y OpenAI no podía ser menos.

Os contamos todo esto porque la empresa desarrolladora del popular ChatGPT que la mayoría utilizáis en estos momentos, ha tomado la determinación de mejorar su programa de ciberdefensa. Para ello acaba de poner a disposición de los usuarios su proyecto llamado «Cyber».

En realidad nos referimos al nuevo modelo denominado GPT-5.4-Cyber ​​para expertos en seguridad verificados. Y es que debemos tener en consideración que en los tiempos que corren, la protección del software crítico depende en gran medida de la capacidad de encontrar y corregir vulnerabilidades más rápido de lo que los atacantes pueden explotarlas.

Funciones y ventajas de GPT-5.4-Cyber

Así, la mencionada OpenAI está ampliando su programa diseñado para brindar a los profesionales de la ciberseguridad un acceso prioritario a herramientas de IA creadas para tal fin. Así, la empresa en estos momentos está ampliando su programa de ciberseguridad o TAC para miles de profesionales verificados y cientos de equipos responsables de la defensa del software crítico.

Para todo esto que os contamos, OpenAI lanza GPT-5.4-Cyber, una versión de GPT-5.4 optimizada para ser de utilidad en el trabajo de seguridad tecnológica. Llegados a este punto, quizá muchos os preguntéis qué diferencia hay entre GPT-5.4-Cyber y el modelo convencional. Pues bien, hay que decir que GPT-5.4-Cyber ​​tiene un umbral de rechazo más bajo para el trabajo legítimo relacionado con la ciberseguridad, que la versión estándar del modelo.

Esto significa que incorpora funciones orientadas a los flujos de trabajo defensivos más avanzados, incluyendo la ingeniería inversa binaria. Esto permite a los profesionales de la seguridad analizar el software compilado en busca de potencial de malware, vulnerabilidades, y proporcionar una mayor solidez sin necesidad de acceder al código fuente.

Estos modelos de IA centrados en la ciberseguridad, presentan limitaciones en cuanto a usos sin visibilidad. Debemos saber que esta restricción se aplica a desarrolladores y organizaciones que acceden a los modelos de OpenAI a través de plataformas de terceros. Y es que en estos casos, OpenAI tiene menos visibilidad directa del usuario, el entorno, o el propósito de la solicitud.