{"id":136298,"date":"2026-05-06T19:06:21","date_gmt":"2026-05-07T01:06:21","guid":{"rendered":"https:\/\/pongara.net\/news\/zyphra-lanza-zaya1-8b-un-modelo-abierto-que-desafia-a-gigantes-de-ia-con-menos-de-1b-activo\/"},"modified":"2026-05-06T19:06:21","modified_gmt":"2026-05-07T01:06:21","slug":"zyphra-lanza-zaya1-8b-un-modelo-abierto-que-desafia-a-gigantes-de-ia-con-menos-de-1b-activo","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/zyphra-lanza-zaya1-8b-un-modelo-abierto-que-desafia-a-gigantes-de-ia-con-menos-de-1b-activo\/","title":{"rendered":"Zyphra lanza ZAYA1-8B, un modelo abierto que desaf\u00eda a gigantes de IA con menos de 1B activo"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/05\/canuto-imagine-1778115975-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/05\/canuto-imagine-1778115975-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/05\/canuto-imagine-1778115975-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/05\/canuto-imagine-1778115975-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/05\/canuto-imagine-1778115975.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>Zyphra present\u00f3 ZAYA1-8B, un nuevo modelo abierto de razonamiento tipo MoE entrenado sobre infraestructura de AMD que, seg\u00fan la empresa, logra competir con sistemas mucho m\u00e1s grandes en matem\u00e1ticas, c\u00f3digo y tareas complejas gracias a una combinaci\u00f3n de arquitectura, preentrenamiento orientado al razonamiento y un m\u00e9todo de c\u00f3mputo en tiempo de prueba llamado Markovian RSA.<br \/>\n***<\/strong><strong><\/strong><\/p>\n<ul>\n<li><strong>ZAYA1-8B usa menos de 1B de par\u00e1metros activos y, seg\u00fan Zyphra, supera a varios modelos abiertos de mayor tama\u00f1o en matem\u00e1ticas y razonamiento.<\/strong><\/li>\n<li><strong>El modelo fue desarrollado sobre cl\u00fasteres AMD MI300X con redes AMD Pensando Pollara, en colaboraci\u00f3n previa con IBM Cloud y AMD.<\/strong><\/li>\n<li><strong>Zyphra liber\u00f3 ZAYA1-8B con pesos abiertos bajo licencia Apache 2.0 y lo puso a disposici\u00f3n para pruebas en Zyphra Cloud.<\/strong><\/li>\n<\/ul>\n<hr>\n<p>La firma de investigaci\u00f3n en inteligencia artificial Zyphra anunci\u00f3 el lanzamiento de <a href=\"https:\/\/x.com\/ZyphraAI\/status\/2052103618145501459\">@ZyphraAI<\/a> ZAYA1-8B, un modelo de razonamiento basado en arquitectura MoE que apunta a maximizar la llamada densidad de inteligencia. La compa\u00f1\u00eda afirm\u00f3 que el sistema opera con menos de 1B de par\u00e1metros activos y aun as\u00ed supera a modelos abiertos mucho m\u00e1s grandes en tareas de matem\u00e1ticas y razonamiento.<\/p>\n<p>Seg\u00fan la empresa, ese desempe\u00f1o acerca a ZAYA1-8B a referentes como DeepSeek-V3.2 y GPT-5-High cuando se le asigna c\u00f3mputo en tiempo de prueba. La propuesta se inscribe en una competencia cada vez m\u00e1s intensa entre desarrolladores que buscan reducir costos de inferencia sin sacrificar capacidad en tareas complejas.<\/p>\n<p>Para lectores menos familiarizados con el tema, un modelo MoE, o mixture of experts, reparte el trabajo entre distintos bloques especializados en lugar de activar toda la red al mismo tiempo. Esa estrategia puede mejorar la eficiencia, ya que solo una fracci\u00f3n de los par\u00e1metros participa en cada consulta.<\/p>\n<p>En el caso de ZAYA1-8B, Zyphra sostuvo que su objetivo fue lograr la mayor inteligencia posible por par\u00e1metro. La empresa atribuy\u00f3 el resultado a varias piezas combinadas: su arquitectura MoE++, un preentrenamiento centrado desde el inicio en razonamiento, una metodolog\u00eda en cascada de aprendizaje por refuerzo y un nuevo esquema de c\u00f3mputo llamado Markovian RSA.<\/p>\n<p>La compa\u00f1\u00eda asegur\u00f3 que, en matem\u00e1ticas y c\u00f3digo, ZAYA1-8B supera a todos los modelos de su clase dentro del segmento de pesos SLM. Tambi\u00e9n se\u00f1al\u00f3 que se ubica por delante de Qwen3.5-4B y Gemma-4-E4B, adem\u00e1s de mostrarse competitivo con modelos de razonamiento de primera generaci\u00f3n como DeepSeek-R1-0528, Gemini-2.5-Pro y Claude 4.5 Sonnet en tareas exigentes de razonamiento matem\u00e1tico.<\/p>\n<p>Esas comparaciones son relevantes porque reflejan una de las tendencias dominantes del mercado de IA: la presi\u00f3n por obtener modelos m\u00e1s compactos, baratos y abiertos que mantengan un rendimiento cercano al de sistemas mucho m\u00e1s costosos. Para empresas y desarrolladores, esa brecha puede ser decisiva al momento de elegir infraestructura, licencias y entornos de despliegue.<\/p>\n<h3>Entrenamiento en AMD y apuesta por una pila alternativa<\/h3>\n<p>Zyphra indic\u00f3 que ZAYA1-8B fue construido sobre su trabajo previo de preentrenamiento en AMD junto con IBM Cloud y AMD. De acuerdo con la empresa, el modelo fue desarrollado en cl\u00fasteres personalizados MI300X apoyados por redes AMD Pensando Pollara.<\/p>\n<p>La firma destac\u00f3 que la mayor memoria HBM disponible en MI300X permite entrenar con contextos m\u00e1s largos y con menos paralelismo. En su mensaje, present\u00f3 ese punto como una demostraci\u00f3n de entrenamiento de extremo a extremo sobre hardware AMD, un asunto que cobra importancia en un sector dominado durante a\u00f1os por otras plataformas de c\u00f3mputo para IA.<\/p>\n<p>El anuncio tambi\u00e9n deja ver un inter\u00e9s estrat\u00e9gico m\u00e1s amplio. A medida que la demanda de entrenamiento e inferencia se dispara, las empresas buscan diversificar proveedores de chips, redes y servicios en la nube para reducir dependencia y mejorar costos. En ese contexto, mostrar un flujo completo de desarrollo sobre AMD tiene una lectura tanto t\u00e9cnica como comercial.<\/p>\n<p>Zyphra agreg\u00f3 que dise\u00f1\u00f3 el entrenamiento con el razonamiento en mente desde la primera etapa del preentrenamiento. Para lidiar con trazas largas de chain of thought en contextos de preentrenamiento cortos, introdujo un m\u00e9todo que describi\u00f3 como recorte que preserva la respuesta, el cual elimina la cola de la traza de razonamiento mientras mantiene intacta la respuesta final.<\/p>\n<h3>Cambios arquitect\u00f3nicos y post-entrenamiento en cuatro etapas<\/h3>\n<p>En el plano de arquitectura, la empresa detall\u00f3 tres modificaciones frente a los MoE convencionales. La primera fue Compressed Convolutional Attention, o CCA, un mecanismo de mezcla de secuencias en un espacio latente comprimido que, seg\u00fan Zyphra, logra una compresi\u00f3n de cach\u00e9 KV de 8\u00d7.<\/p>\n<p>La segunda fue un router basado en MLP derivado de ZAYA1, acompa\u00f1ado por balanceo de sesgo mediante un controlador PID. La tercera consisti\u00f3 en un escalado residual aprendido. Aunque el anuncio no profundiz\u00f3 en m\u00e9tricas independientes para cada pieza, la compa\u00f1\u00eda present\u00f3 estas decisiones como parte central del rendimiento del modelo.<\/p>\n<div class=\"diari-in-content-middle diari-entity-placement\" id=\"diari-3463661013\">\n<div id=\"diari-3254426259\" data-diari-trackid=\"195495\" data-diari-trackbid=\"1\" class=\"diari-target diari-target\"><\/div>\n<\/div>\n<p>El post-entrenamiento, por su parte, fue descrito como una cascada de RL de cuatro etapas montada sobre una columna vertebral algor\u00edtmica compartida. Zyphra enumer\u00f3 async PipelineRL, regiones de confianza DPPO Binary-TV, agregaci\u00f3n de p\u00e9rdida Dr-GRPO, ventajas MaxRL y una configuraci\u00f3n sin KL-en-recompensa.<\/p>\n<p>La secuencia de trabajo incluy\u00f3 calentamiento de razonamiento, un curr\u00edculum RLVE-Gym, una fase de RL para matem\u00e1ticas, c\u00f3digo y TTC, y finalmente una etapa de RL conductual. En t\u00e9rminos pr\u00e1cticos, esto sugiere un \u00e9nfasis especial en afinar la capacidad del modelo para resolver problemas estructurados antes de ajustar su comportamiento general.<\/p>\n<p>Para el ecosistema de IA abierta, este tipo de revelaciones t\u00e9cnicas suele tener doble efecto. Por un lado, ofrecen pistas sobre c\u00f3mo escalar modelos compactos con mayor eficiencia. Por otro, contribuyen a intensificar la carrera por sistemas abiertos capaces de rivalizar con alternativas cerradas en tareas donde el razonamiento preciso importa m\u00e1s que la simple generaci\u00f3n fluida de texto.<\/p>\n<h3>Markovian RSA y el foco en el c\u00f3mputo en tiempo de prueba<\/h3>\n<p>Uno de los elementos m\u00e1s llamativos del anuncio fue la introducci\u00f3n de Markovian RSA. Zyphra lo describi\u00f3 como un sistema de agregaci\u00f3n recursiva de candidatos con arrastre acotado, donde cada ronda solo pasa hacia adelante los \u00faltimos \u03c4 tokens de cada candidato.<\/p>\n<p>La consecuencia de ese dise\u00f1o, seg\u00fan la empresa, es que la longitud de contexto permanece siempre acotada sin importar cu\u00e1nto tiempo razone el modelo. Esta promesa responde a uno de los desaf\u00edos m\u00e1s persistentes en IA de razonamiento: c\u00f3mo aumentar el c\u00f3mputo durante la inferencia sin disparar de forma descontrolada el uso de memoria y latencia.<\/p>\n<p>Zyphra afirm\u00f3 que, bajo una configuraci\u00f3n de Markovian RSA con c\u00f3mputo extraalto, ZAYA1-8B supera a DeepSeek-V3.2 y GPT OSS 120B high en APEX-shortlist. La firma a\u00f1adi\u00f3 que ese ajuste escala el c\u00f3mputo hasta un promedio de 5,5M tokens por pregunta.<\/p>\n<p>Ese dato sugiere que la compa\u00f1\u00eda no solo est\u00e1 compitiendo en tama\u00f1o o eficiencia est\u00e1tica, sino tambi\u00e9n en c\u00f3mo administrar el razonamiento deliberado durante la ejecuci\u00f3n. En otras palabras, parte de la ventaja que reclama no proviene solo de los pesos del modelo, sino de la forma en que el sistema distribuye trabajo adicional al momento de resolver una consulta dif\u00edcil.<\/p>\n<p>Para quienes siguen la evoluci\u00f3n del sector, esta estrategia encaja con una tendencia clara. Varias empresas est\u00e1n explorando m\u00e9todos de test-time compute para mejorar resultados sin necesidad de expandir de forma dr\u00e1stica el tama\u00f1o base del modelo. Si esas t\u00e9cnicas se consolidan, podr\u00edan cambiar la relaci\u00f3n entre costo, latencia y precisi\u00f3n en productos comerciales de IA.<\/p>\n<h3>Licencia abierta y disponibilidad inmediata<\/h3>\n<p>Zyphra se defini\u00f3 como una empresa abierta de investigaci\u00f3n y productos de superinteligencia con sede en San Francisco, California. En su presentaci\u00f3n, reiter\u00f3 que su misi\u00f3n es construir inteligencia artificial alineada con los humanos que ayude a individuos y organizaciones a alcanzar su m\u00e1ximo potencial.<\/p>\n<p>Junto con el anuncio t\u00e9cnico, la firma inform\u00f3 que ZAYA1-8B se libera con pesos abiertos bajo licencia Apache 2.0. Adem\u00e1s, indic\u00f3 que el modelo puede probarse de forma gratuita desde Zyphra Cloud, una decisi\u00f3n que ampl\u00eda el alcance del lanzamiento entre desarrolladores, investigadores y empresas interesadas en evaluar alternativas abiertas.<\/p>\n<p>La empresa tambi\u00e9n enlaz\u00f3 un blog, un informe t\u00e9cnico, los pesos del modelo y el acceso en la nube como parte del estreno. Esa combinaci\u00f3n es relevante porque facilita tanto la inspecci\u00f3n de detalles t\u00e9cnicos como la experimentaci\u00f3n directa, dos factores clave para ganar tracci\u00f3n en la comunidad de IA abierta.<\/p>\n<p>Aunque las afirmaciones de rendimiento a\u00fan deber\u00e1n ser contrastadas por evaluaciones externas m\u00e1s amplias, el lanzamiento de ZAYA1-8B refuerza dos se\u00f1ales del mercado. La primera es que la competencia por modelos abiertos de alto rendimiento sigue aceler\u00e1ndose. La segunda es que AMD busca consolidarse como una plataforma viable para entrenamiento avanzado, justo cuando la infraestructura de IA se convierte en uno de los campos m\u00e1s disputados de la industria tecnol\u00f3gica.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p><a href=\"https:\/\/x.com\/ZyphraAI\/status\/2052103618145501459\"><\/a><\/p>\n<\/blockquote>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Zyphra present\u00f3 ZAYA1-8B, un nuevo modelo abierto de razonamiento tipo MoE entrenado sobre infraestructura de AMD que, seg\u00fan la empresa, logra competir con sistemas mucho [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":136299,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[1794,293,285,9923,10046,2532,1268,32250,32249],"class_list":["post-136298","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-abierto","tag-activo","tag-crypto","tag-desafia","tag-gigantes","tag-modelo","tag-noticias","tag-zaya1-8b","tag-zyphra"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/136298","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=136298"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/136298\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/136299"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=136298"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=136298"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=136298"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}