{"id":134850,"date":"2026-04-20T19:47:49","date_gmt":"2026-04-21T01:47:49","guid":{"rendered":"https:\/\/pongara.net\/news\/prismml-lanza-ternary-bonsai-modelos-de-ia-de-158-bits-con-mayor-precision-y-menor-memoria\/"},"modified":"2026-04-20T19:47:49","modified_gmt":"2026-04-21T01:47:49","slug":"prismml-lanza-ternary-bonsai-modelos-de-ia-de-158-bits-con-mayor-precision-y-menor-memoria","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/prismml-lanza-ternary-bonsai-modelos-de-ia-de-158-bits-con-mayor-precision-y-menor-memoria\/","title":{"rendered":"PrismML lanza Ternary Bonsai, modelos de IA de 1,58 bits con mayor precisi\u00f3n y menor memoria"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776736063-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776736063-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776736063-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776736063-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776736063.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>PrismML anunci\u00f3 Ternary Bonsai, una nueva familia de modelos de lenguaje de 1,58 bits dise\u00f1ada para combinar restricciones severas de memoria con niveles de precisi\u00f3n m\u00e1s altos. La propuesta busca ampliar la frontera de eficiencia en IA con variantes de 8B, 4B y 1,7B par\u00e1metros, capaces de correr de forma nativa en dispositivos Apple.<br \/>\n***<\/strong><strong><\/strong><\/p>\n<ul>\n<li><strong>PrismML present\u00f3 Ternary Bonsai en versiones de 8B, 4B y 1,7B par\u00e1metros con pesos ternarios {-1, 0, +1}.<\/strong><\/li>\n<li><strong>El modelo 8B alcanza una media de 75,5 en benchmarks con una huella de apenas 1,75 GB, frente a 70,5 del Bonsai 8B de 1 bit.<\/strong><\/li>\n<li><strong>La empresa afirma que la familia ofrece hasta 5 veces m\u00e1s throughput que modelos 8B de 16 bits y entre 3 y 4 veces mejor eficiencia energ\u00e9tica.<\/strong><\/li>\n<\/ul>\n<hr>\n<p>PrismML present\u00f3 Ternary Bonsai, una nueva familia de modelos de lenguaje de 1,58 bits orientada a equilibrar restricciones estrictas de memoria con exigencias elevadas de precisi\u00f3n. El anuncio, realizado el 16 de abril de 2026, ampl\u00eda la l\u00ednea Bonsai que la empresa ven\u00eda desarrollando en torno a modelos de compresi\u00f3n extrema.<\/p>\n<p>Para entender la relevancia del lanzamiento conviene partir de una idea b\u00e1sica. En inteligencia artificial, los modelos suelen requerir grandes cantidades de memoria y energ\u00eda, lo que limita su despliegue en laptops, tel\u00e9fonos y otros dispositivos de borde. PrismML busca atacar ese problema reduciendo radicalmente la representaci\u00f3n de los pesos sin abandonar del todo la capacidad de razonamiento.<\/p>\n<p>La firma explic\u00f3 que su familia anterior de modelos Bonsai de 1 bit ya hab\u00eda demostrado que una compresi\u00f3n extrema pod\u00eda producir sistemas comercialmente \u00fatiles. Ternary Bonsai apunta ahora a otro punto de esa curva, con un aumento moderado de tama\u00f1o que, seg\u00fan la empresa, se traduce en una mejora importante de rendimiento.<\/p>\n<p>Los nuevos modelos estar\u00e1n disponibles en tres tama\u00f1os: 8B, 4B y 1,7B par\u00e1metros. Al emplear pesos ternarios, la compa\u00f1\u00eda asegura una huella de memoria aproximadamente 9 veces menor que la de modelos est\u00e1ndar de 16 bits, al tiempo que supera a la mayor\u00eda de sus pares dentro de sus respectivas clases de par\u00e1metros en benchmarks ampliamente usados.<\/p>\n<h3>Qu\u00e9 hace distinto a Ternary Bonsai<\/h3>\n<p>La principal novedad t\u00e9cnica es que Ternary Bonsai usa una representaci\u00f3n de 1,58 bits en toda la arquitectura de red. PrismML subraya que no hay componentes que recurran a rutas de mayor precisi\u00f3n para sostener el desempe\u00f1o, un detalle importante porque muchas propuestas comprimidas conservan partes cr\u00edticas en formatos m\u00e1s pesados.<\/p>\n<p>Seg\u00fan la descripci\u00f3n de la empresa, embeddings, capas de atenci\u00f3n, MLP y la cabeza LM utilizan la misma representaci\u00f3n de 1,58 bits. Esa consistencia convierte al modelo en un sistema ternario integral y no en una aproximaci\u00f3n parcial con distintos niveles de cuantizaci\u00f3n mezclados dentro de la arquitectura.<\/p>\n<p>El esquema se apoya en una cuantizaci\u00f3n por grupos. Cada peso queda restringido a uno de tres valores: {-s, 0, +s}. Estos tres estados se codifican como (-1, 0, +1) usando 1,58 bits por peso, junto con un factor de escala compartido en FP16, identificado como s, para cada grupo de 128 pesos.<\/p>\n<p>En la pr\u00e1ctica, la propuesta intenta sostener dos objetivos que suelen entrar en conflicto. Por un lado, reducir la memoria al m\u00ednimo. Por el otro, conservar suficiente capacidad para tareas de razonamiento, programaci\u00f3n, evaluaci\u00f3n de instrucciones y resoluci\u00f3n de problemas matem\u00e1ticos b\u00e1sicos. Esa tensi\u00f3n es justamente la que define la competencia actual entre modelos grandes y versiones compactas para despliegue local.<\/p>\n<h3>Resultados frente a la familia de 1 bit y otros rivales<\/h3>\n<p>PrismML destac\u00f3 que Ternary Bonsai 8B mejora en 5 puntos el promedio de benchmarks respecto a Bonsai 8B de 1 bit. El nuevo modelo logra una puntuaci\u00f3n media de 75,5 con una huella de 1,75 GB, frente a 70,5 del modelo previo, que ocupa 1,15 GB. La diferencia de memoria entre ambos es de solo 600 MB.<\/p>\n<p>La empresa sostiene que, dentro de su categor\u00eda, Ternary Bonsai 8B solo queda por detr\u00e1s de Qwen3 8B, cuyo tama\u00f1o informado es de 16,38 GB. Tambi\u00e9n afirma que supera a los dem\u00e1s modelos comparables, a pesar de ser entre 9 y 10 veces m\u00e1s peque\u00f1o que ellos en t\u00e9rminos de huella de memoria.<\/p>\n<p>El desempe\u00f1o, de acuerdo con PrismML, no estar\u00eda concentrado en una sola prueba. El modelo public\u00f3 resultados competitivos en MMLU Redux, MuSR, GSM8K, HumanEval+, IFEval y BFCLv3, un conjunto de benchmarks que cubre conocimiento general, razonamiento, programaci\u00f3n y seguimiento de instrucciones.<\/p>\n<p>Otro dato que la compa\u00f1\u00eda resalt\u00f3 es la llamada densidad de inteligencia por GB. Bajo esa m\u00e9trica, Ternary Bonsai seguir\u00eda superando de forma significativa a otros modelos de clases de par\u00e1metros parecidas. Esa clase de indicador apunta a medir cu\u00e1nto rendimiento \u00fatil entrega un sistema por cada unidad de memoria consumida, un criterio cada vez m\u00e1s importante para aplicaciones locales y empresariales.<\/p>\n<h3>La nueva frontera de eficiencia y el lugar de los modelos de 1 bit<\/h3>\n<p>PrismML enmarc\u00f3 el lanzamiento como una extensi\u00f3n de la frontera de Pareto que sus modelos Bonsai de 1 bit hab\u00edan establecido antes. En t\u00e9rminos simples, la frontera de Pareto describe combinaciones \u00f3ptimas entre dos variables que compiten entre s\u00ed, en este caso capacidad del modelo y tama\u00f1o final.<\/p>\n<div class=\"diari-in-content-middle diari-entity-placement\" id=\"diari-2596048108\">\n<div id=\"diari-588966750\" data-diari-trackid=\"195495\" data-diari-trackbid=\"1\" class=\"diari-target diari-target\"><\/div>\n<\/div>\n<p>Seg\u00fan la empresa, los modelos de 1 bit hab\u00edan marcado una referencia nueva en esa relaci\u00f3n entre rendimiento y huella. Ternary Bonsai desplaza esa frontera todav\u00eda m\u00e1s hacia la izquierda, es decir, ofrece m\u00e1s capacidad \u00fatil sin exigir un salto proporcional en memoria.<\/p>\n<p>La compa\u00f1\u00eda insisti\u00f3 en que el lanzamiento no reemplaza a Bonsai de 1 bit. M\u00e1s bien lo complementa. En situaciones donde la prioridad absoluta sea usar la menor huella posible, los modelos de 1 bit seguir\u00edan siendo la mejor opci\u00f3n. En cambio, cuando un aumento peque\u00f1o de memoria pueda justificarse por una mejora significativa de calidad, Ternary Bonsai ser\u00eda la alternativa adecuada.<\/p>\n<p>Las versiones de 1,7B, 4B y 8B responden precisamente a esa l\u00f3gica. PrismML plantea que estas variantes extienden el compromiso entre memoria, throughput y calidad del modelo a distintos niveles de despliegue. Para desarrolladores y empresas, eso implica m\u00e1s flexibilidad al momento de asignar recursos en funci\u00f3n del hardware disponible y del caso de uso.<\/p>\n<h3>Velocidad, consumo de energ\u00eda y despliegue en Apple<\/h3>\n<p>M\u00e1s all\u00e1 de los benchmarks, PrismML public\u00f3 datos pr\u00e1cticos sobre throughput y eficiencia energ\u00e9tica. En un M4 Pro, Ternary Bonsai 8B alcanza 82 tokens por segundo. La empresa asegura que eso equivale a cerca de 5 veces la velocidad de un modelo 8B de 16 bits.<\/p>\n<p>En iPhone 17 Pro Max, el mismo modelo opera a 27 tokens por segundo. Este dato es relevante porque muestra que la propuesta no se limita a correr en estaciones de trabajo o servidores peque\u00f1os, sino que tambi\u00e9n apunta a ejecuci\u00f3n local en hardware m\u00f3vil de consumo.<\/p>\n<p>En materia energ\u00e9tica, PrismML afirm\u00f3 que Ternary Bonsai usa bastante menos energ\u00eda que sus equivalentes de precisi\u00f3n completa de 16 bits. El rango de mejora reportado es de entre 3 y 4 veces mejor eficiencia energ\u00e9tica, una ventaja especialmente valiosa para dispositivos port\u00e1tiles y cargas operativas persistentes.<\/p>\n<p>Las cifras compartidas por la empresa ubican el consumo de Ternary Bonsai 8B en 0,105 mWh por token sobre M4 Pro y en 0,132 mWh por token sobre iPhone 17 Pro Max. En un contexto donde la discusi\u00f3n sobre IA suele girar en torno a centros de datos y gasto el\u00e9ctrico, estos resultados apuntan a otro frente competitivo: modelos suficientemente capaces para correr cerca del usuario final.<\/p>\n<h3>Licencia, acceso y contexto empresarial<\/h3>\n<p>La cobertura de plataforma incluye ejecuci\u00f3n nativa en dispositivos Apple, como Mac, iPhone y iPad, a trav\u00e9s de MLX. PrismML indic\u00f3 adem\u00e1s que los pesos del modelo ya est\u00e1n disponibles bajo licencia Apache 2.0, una decisi\u00f3n que facilita la experimentaci\u00f3n y el desarrollo por parte de terceros.<\/p>\n<p>La empresa se\u00f1al\u00f3 que los detalles t\u00e9cnicos completos de sus procesos de entrenamiento, evaluaci\u00f3n y benchmarking se encuentran en su whitepaper. Esa documentaci\u00f3n ser\u00e1 clave para que la comunidad pueda contrastar con mayor precisi\u00f3n los resultados reportados y entender mejor los compromisos detr\u00e1s del dise\u00f1o ternario.<\/p>\n<p>De acuerdo con la informaci\u00f3n publicada por <a href=\"https:\/\/prismml.com\/news\/ternary-bonsai\">PrismML \u2014 Introducing Ternary Bonsai: Top Intelligence at 1.58 Bits<\/a>, la compa\u00f1\u00eda surgi\u00f3 de un equipo de investigadores de Caltech y fue fundada con apoyo de Khosla Ventures, Cerberus y Google. La firma afirma haber dedicado a\u00f1os a uno de los desaf\u00edos m\u00e1s complejos del sector: comprimir redes neuronales sin sacrificar su capacidad de razonamiento.<\/p>\n<p>En ese marco, Ternary Bonsai se presenta como un intento de llevar modelos de lenguaje m\u00e1s capaces a dispositivos con l\u00edmites reales de memoria y energ\u00eda. Si la promesa se sostiene fuera de los benchmarks internos, la propuesta podr\u00eda reforzar una tendencia importante para la industria de IA: menos dependencia de hardware masivo y m\u00e1s inferencia \u00fatil en equipos personales.<\/p>\n<hr>\n<p><em>Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio P\u00fablico.<\/em><\/p>\n<p><em>Este art\u00edculo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisi\u00f3n.<\/em><\/p>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>PrismML anunci\u00f3 Ternary Bonsai, una nueva familia de modelos de lenguaje de 1,58 bits dise\u00f1ada para combinar restricciones severas de memoria con niveles de precisi\u00f3n [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":134851,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[31940,285,639,1088,1268,696,31941,31942],"class_list":["post-134850","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-bonsai","tag-crypto","tag-memoria","tag-modelos","tag-noticias","tag-precision","tag-prismml","tag-ternary"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/134850","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=134850"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/134850\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/134851"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=134850"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=134850"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=134850"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}