
El nuevo modelo GPT-5 de OpenAI ya está ayudando a resolver problemas científicos reales en biología y matemáticas, pero la propia compañía insiste en que todavía no puede trabajar de forma autónoma ni marca la llegada de la inteligencia artificial general. Más bien, funciona como un poderoso copiloto que acelera la investigación bajo la supervisión cuidadosa de expertos humanos.
***
- GPT-5 ya colabora en descubrimientos en inmunología, teoría de números y teoría de grafos, pero no reemplaza a investigadores humanos.
- OpenAI advierte que el modelo aún alucina citas y pruebas y solo debe usarse con supervisión experta continua.
- La empresa niega que estos avances signifiquen que la AGI esté cerca y redefine cómo evalúa las capacidades reales de sus modelos.
GPT-5 revoluciona la ciencia pero con advertencias
El nuevo modelo de OpenAI acelera investigaciones en biología y matemáticas.
Sin embargo, aún no puede operar de forma autónoma y requiere supervisión de expertos.
A pesar de sus avances, sigue alucinando datos y… pic.twitter.com/RfhA0LnsTG
— Diario฿itcoin (@DiarioBitcoin) November 21, 2025
El lanzamiento de GPT-5 por parte de OpenAI ha generado reacciones tibias entre usuarios de consumo, pero un nuevo informe interno sugiere que el modelo está teniendo un impacto mucho más profundo en los laboratorios científicos. De acuerdo con la compañía, GPT-5 ya contribuye a acelerar proyectos de investigación en biología, matemáticas y algoritmos, aunque aún está lejos de reemplazar a los científicos humanos o de marcar la llegada de la inteligencia artificial general, conocida como AGI.
El trabajo, publicado como el primer informe del programa OpenAI for Science, presenta una colección de estudios de caso donde el modelo actúa como asistente especializado. En lugar de conducir experimentos por su cuenta, GPT-5 ayuda a acortar partes críticas del flujo de trabajo, desde la revisión de literatura hasta la formulación de hipótesis y el diseño de experimentos. Sin embargo, OpenAI subraya que el modelo no es autónomo ni infalible y que necesita la guía continua de expertos.
La publicación coincide con las ambiciones declaradas por el CEO Sam Altman y el científico jefe Jakub Pachocki, quienes en una transmisión en vivo el mes anterior hablaron de plazos agresivos para desarrollar AGI. Aun así, la empresa se esfuerza en diferenciar estos avances concretos en investigación de la idea de que GPT-5 ya representa una inteligencia general comparable a la humana.
El contexto corporativo también añade tensión al debate. Ziff Davis, empresa matriz de ZDNET, demandó en abril de 2025 a OpenAI por presunta infracción de derechos de autor al entrenar y operar sus sistemas de IA, lo que deja claro que la carrera por los modelos frontier no solo es técnica, sino también legal y económica.
GPT-5 entra al laboratorio: qué es openai for science
El informe analizado procede de OpenAI for Science, un equipo recién anunciado en septiembre que reúne a investigadores internos y académicos externos. El grupo tiene como objetivo integrar modelos frontier como GPT-5 en el proceso científico, permitiendo a los investigadores probar hipótesis y extraer información de grandes conjuntos de datos de manera más rápida que con métodos tradicionales.
Según el blog que acompaña al artículo, OpenAI for Science colabora con instituciones como Vanderbilt, UC Berkeley, Columbia, Cambridge, Oxford y The Jackson Laboratory, entre otras. Estas alianzas buscan entender de forma sistemática dónde los modelos actuales son realmente útiles y dónde fallan, así como diseñar estrategias para integrarlos en flujos de trabajo que ya dependen de simuladores, software estadístico y herramientas de álgebra computacional.
En su resumen, OpenAI afirma que GPT-5 parece capaz de acortar partes del flujo de trabajo de investigación cuando es utilizado por expertos. El modelo no ejecuta proyectos de inicio a fin ni resuelve problemas científicos de manera totalmente autónoma. Sin embargo, amplía la “superficie de exploración”, lo que permite a los equipos humanos acercarse más rápido a resultados correctos y a decisiones experimentales más informadas.
Para la comunidad académica y científica, este tipo de integración marca un cambio de paradigma. La IA deja de ser solo un sistema de resumen o un chatbot generalista y pasa a operar como una capa adicional de razonamiento, que se superpone a las herramientas tradicionales sin sustituirlas, siempre bajo estricta verificación humana.
casos de uso: de la inmunología a la teoría de números
El documento destaca una serie de estudios de caso que muestran cómo GPT-5 puede impulsar tareas específicas en disciplinas tan diversas como la biología experimental y la matemática pura. Muchos de estos ejemplos no son demostraciones de genialidad espontánea del modelo, sino ilustraciones de cómo puede acelerar procesos que a los humanos les tomarían meses de lectura, discusión y prueba y error.
Uno de los ejemplos más llamativos proviene de The Jackson Laboratory, donde científicos trabajaron durante meses en un ensayo de inmunología para explicar un cambio observado en células inmunitarias. Para evitar sesgos, proporcionaron a GPT-5 datos no publicados del ensayo, asegurándose así de que el modelo no hubiera visto esa información durante su entrenamiento. Frente a ese desafío, GPT-5 identificó la causa probable en cuestión de minutos a partir de un gráfico inédito y sugirió un experimento que la demostraba.
La implicación es clara para áreas como la inmunología y la medicina de precisión. Si estos modelos pueden analizar datos complejos y proponer explicaciones iniciales con rapidez, los equipos podrían iterar tratamientos y entender enfermedades en minutos en lugar de meses, siempre que los expertos mantengan el control de las decisiones. Esto cobra relevancia en campos donde los plazos largos de experimentación suelen frenar la traslación de hallazgos al entorno clínico.
En un segundo estudio asociado al mismo laboratorio, GPT-5 apoyó a un equipo que trabajaba en un teorema de geometría. El modelo realizó una búsqueda profunda de literatura y reveló conexiones entre el nuevo resultado y otras áreas de las matemáticas. Identificó aplicaciones potenciales y referencias que el equipo no había encontrado, incluidas fuentes en otros idiomas, lo que demuestra su capacidad para navegar bases de conocimiento amplias y heterogéneas.
redescubrimientos, nuevos resultados y límites de la creatividad de la ia
OpenAI reconoce que muchos de los logros documentados pueden describirse como “redescubrimiento independiente de resultados conocidos”. GPT-5 llega con rapidez a conclusiones que ya existen en la literatura, aunque a veces están dispersas, difíciles de localizar o formuladas de manera poco accesible. Esta capacidad de síntesis acelera el trabajo de equipos que no siempre tienen tiempo para revisar décadas de publicaciones.
No obstante, el informe también describe cuatro nuevos resultados en matemáticas atribuidos a GPT-5, cuidadosamente verificados por autores humanos. Estos casos muestran que el modelo no solo recompone conocimiento previo, sino que puede proponer pasos clave que faltaban en problemas abiertos, aunque todavía requiere refinamiento y validación intelectual por parte de matemáticos expertos.
Un ejemplo destacado es el trabajo de la investigadora de Columbia Mehtaab Sawhney y el investigador de OpenAI Mark Sellke sobre un problema de teoría de números de Paul Erdős, conocido como #848. Este problema estaba marcado como abierto en un sitio público donde usuarios colaboran con soluciones, en gran medida porque los avances humanos están dispersos en notas y libros, sin una solución centralizada ni universalmente aceptada.
GPT-5 no inventó de la nada la solución completa. En cambio, aprovechó la estructura ya delineada por comentarios humanos en ese sitio. El modelo propuso una estimación de densidad crucial para el paso final. Sawhney y Sellke corrigieron y ajustaron esa sugerencia hasta convertirla en una prueba completa que cerró el problema. La contribución de la IA fue un eslabón faltante que hizo posible finalizar una línea de trabajo humana previa.
demostraciones en teoría de grafos y el papel del ‘crítico rápido’
Otro de los casos de estudio en matemáticas muestra a GPT-5 trabajando sobre un problema de teoría de grafos. Allí, el modelo propuso dos pruebas: una ya conocida, y otra nueva. En la segunda, GPT-5 se apoyó en un argumento más elegante y diferente del original humano, ofreciendo así una alternativa que los investigadores pudieron verificar y eventualmente adoptar.
Este tipo de aportes refuerza la idea de que la IA puede funcionar como un generador de enfoques frescos para problemas formales, incluso en áreas de alta abstracción como la teoría de grafos. Sin embargo, la validación final siguió dependiendo por completo de matemáticos humanos, lo que subraya la necesidad de supervisión constante en dominios donde pequeños errores lógicos invalidan resultados completos.
El combinatorialista Tim Gowers también puso a prueba a GPT-5 con varias preguntas difíciles en las que estaba trabajando. Le pidió al modelo comentarios, críticas y contraejemplos. En algunas ocasiones, GPT-5 identificó fallas en los razonamientos y ofreció argumentos más simples o rutas alternativas que ahorraban tiempo de exploración.
Aun así, GPT-5 se atascó o no pudo avanzar de forma significativa en otros problemas. Según el resumen de OpenAI, la conclusión general de Gowers fue que el modelo ya es útil como un crítico muy rápido e informado para someter a estrés ideas matemáticas. No obstante, todavía no cumple el umbral para ser considerado un coautor completo en un trabajo de investigación.
alucinaciones, sutilezas de dominio y la necesidad de supervisión
A pesar de estos avances, OpenAI insiste en que GPT-5 tiene limitaciones claras. La empresa advierte que el modelo puede alucinar citas científicas, mecanismos biológicos o pruebas matemáticas que suenan plausibles pero son incorrectas. También puede ser sensible a la forma en que se le formula un problema, lo que la compañía denomina sensibilidad al andamiaje y a problemas de calentamiento.
Además, GPT-5 a veces pasa por alto sutilezas específicas de cada dominio y puede insistir en líneas de razonamiento poco productivas si no recibe correcciones a tiempo. En ciencia, donde cada detalle metodológico o conceptual importa, estos errores no son triviales. Por eso, OpenAI recomienda un uso estrictamente supervisado por expertos y deja claro que el modelo no debe reemplazar los métodos actuales de validación rigurosa.
El documento sostiene que, donde existan herramientas especializadas como simuladores o sistemas de álgebra computacional, los investigadores deben seguir utilizándolas para garantizar precisión. Los modelos de lenguaje se conciben más bien como un complemento de razonamiento general, capaces de conectar piezas dispares de información o de proponer estrategias iniciales para testar hipótesis.
Para interactuar de forma eficaz con GPT-5, los científicos deberán aprender técnicas de comunicación específicas, similares a lo que en otros contextos se conoce como ingeniería de prompts. OpenAI describe el trabajo productivo con el modelo como un “diálogo” continuo entre humanos y la IA, en línea con la idea de asistentes tipo copiloto o compañeros de redacción, aunque en este caso orientados a tareas de alta complejidad científica.
agi: entre expectativas, plazos y realidad de las capacidades
Una de las grandes preguntas en torno a GPT-5 es si este tipo de resultados representan un indicio de que la AGI está cerca. OpenAI responde con cautela. En una declaración a ZDNET, la empresa señaló que no ve estos avances como señales de que esté próxima a una AGI o a un “inserto de investigador” plenamente competente.
La referencia apunta a los comentarios de Sam Altman en su transmisión en vivo, donde dijo que OpenAI planea lanzar para septiembre de 2026 un modelo con capacidades de investigación equivalentes a las de un interno. El informe actual matiza esa promesa, mostrando que, si bien GPT-5 ya funciona como un socio de investigación incipiente, todavía depende de supervisión estrecha y no cumple los estándares de autonomía que se esperarían de una AGI.
OpenAI también reconoce que muchos de los puntos de referencia estándar en el campo de la IA comienzan a saturarse. En consecuencia, la compañía afirma que está poniendo más énfasis en evaluar los modelos en flujos de trabajo reales, como los procesos científicos documentados en este informe, en lugar de limitarse a métricas sintéticas o benchmarks tradicionales.
Para la comunidad interesada en criptomonedas, blockchain y mercados financieros, este enfoque más realista tiene implicaciones importantes. Sugiere que los próximos avances significativos no vendrán solo de modelos más grandes, sino de una integración más profunda en tareas complejas del mundo real, donde la calidad del diseño de sistemas y la gobernanza humana importan tanto como la potencia de cómputo.
entre utopía y catástrofe: el futuro de la ciencia con ia
En el artículo relacionado citado por ZDNET, OpenAI ha admitido que trabaja hacia escenarios extremos: una posible utopía de descubrimientos acelerados o una catástrofe si la tecnología se usa mal o se descontrola. El informe de OpenAI for Science se ubica en un punto intermedio más pragmático, donde la IA amplía las capacidades de los investigadores pero no los sustituye.
Los resultados presentados son, en palabras de los propios investigadores, modestos en alcance pero profundos en implicación. Demuestran que modelos como GPT-5 pueden contribuir a resolver problemas que las personas aún no habían resuelto completamente, aunque solo cuando se integran en equipos humanos y se someten a la revisión crítica de expertos.
A medida que los modelos frontier evolucionan con rapidez, se espera que esta colaboración aumente en escala. Los científicos podrían dedicar más tiempo a formular preguntas, criticar conceptos y verificar resultados, mientras que la IA asume parte de la carga pesada de exploración y revisión de literatura. Esta división del trabajo podría redefinir la productividad en campos tan diversos como la biología, las matemáticas, la economía o la ciencia de datos aplicada a mercados financieros y criptoactivos.
Por ahora, el mensaje de OpenAI es simultáneamente ambicioso y prudente. GPT-5 se acerca al nivel de un socio de investigación con capacidades útiles, pero con limitaciones claras. No es todavía el investigador autónomo que algunos imaginan, ni una prueba de que la AGI esté a la vuelta de la esquina. Más bien, es un recordatorio de que la combinación de inteligencia humana y artificial seguirá siendo, por un tiempo, la ruta más segura hacia nuevos descubrimientos.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.

GPT-5 revoluciona la ciencia pero con advertencias 