{"id":134587,"date":"2026-04-17T17:28:55","date_gmt":"2026-04-17T23:28:55","guid":{"rendered":"https:\/\/pongara.net\/news\/mentisdb-propone-memoria-agentica-con-cadena-hash-y-recuperacion-hibrida-sin-depender-de-llm\/"},"modified":"2026-04-17T17:28:55","modified_gmt":"2026-04-17T23:28:55","slug":"mentisdb-propone-memoria-agentica-con-cadena-hash-y-recuperacion-hibrida-sin-depender-de-llm","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/mentisdb-propone-memoria-agentica-con-cadena-hash-y-recuperacion-hibrida-sin-depender-de-llm\/","title":{"rendered":"MentisDB propone memoria ag\u00e9ntica con cadena hash y recuperaci\u00f3n h\u00edbrida sin depender de LLM"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776468528-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776468528-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776468528-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776468528-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1776468528.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>Un nuevo documento t\u00e9cnico plantea que la memoria de largo plazo para agentes de IA no deber\u00eda depender de archivos improvisados, contexto ef\u00edmero ni servicios opacos. MentisDB propone en cambio un ledger sem\u00e1ntico, encadenado por hash y con recuperaci\u00f3n h\u00edbrida, dise\u00f1ado para preservar integridad, trazabilidad y portabilidad en sistemas ag\u00e9nticos.<br \/>\n***<\/strong><strong><\/strong><\/p>\n<ul>\n<li><strong>MentisDB define la memoria de agentes como una cadena de registros tipados, de solo anexado y protegidos con SHA-256.<\/strong><\/li>\n<li><strong>El sistema combina b\u00fasqueda l\u00e9xica BM25, se\u00f1ales vectoriales, expansi\u00f3n de grafos, cohesi\u00f3n de sesi\u00f3n y RRF.<\/strong><\/li>\n<li><strong>Seg\u00fan el documento, logra R@10 de 88,7% en LoCoMo-2P y R@10 de 74,1% en LongMemEval, sin requerir LLM en la ruta principal.<\/strong><\/li>\n<\/ul>\n<hr>\n<p>La memoria de largo plazo se ha convertido en uno de los cuellos de botella m\u00e1s visibles para los agentes basados en modelos de lenguaje. Muchos sistemas siguen dependiendo de ventanas de contexto ef\u00edmeras, archivos Markdown dispersos o estados propietarios dif\u00edciles de trasladar entre herramientas. En ese terreno aparece MentisDB, una propuesta que busca convertir la memoria ag\u00e9ntica en una capa persistente, auditable y sem\u00e1nticamente estructurada.<\/p>\n<p>El documento <a href=\"https:\/\/raw.githubusercontent.com\/CloudLLM-ai\/mentisdb\/refs\/heads\/master\/WHITEPAPER.tex\">A Hash-Chained Semantic Memory Substrate for Agentic Systems<\/a>, firmado por Angel Leon, de la Universidad Cat\u00f3lica Andr\u00e9s Bello, describe a MentisDB como un motor de memoria duradero que organiza los recuerdos de un agente como un libro mayor de thoughts tipados, encadenados por hash y de solo anexado. La versi\u00f3n rese\u00f1ada es la 0.8.9, fechada el 17 de abril de 2026.<\/p>\n<p>La tesis central es simple, pero ambiciosa. Si los agentes van a operar de forma sostenida, coordinarse entre s\u00ed y mantener continuidad real, entonces la memoria no puede ser un complemento improvisado. Debe tener integridad verificable, significado expl\u00edcito, validez temporal y capacidad de recuperaci\u00f3n eficiente.<\/p>\n<p>En vez de tratar cada recuerdo como texto suelto, MentisDB lo modela como un registro estructurado. Cada thought incluye versi\u00f3n de esquema, identificador \u00fanico, \u00edndice de anexado, marca temporal, agente emisor, firma opcional, tipo sem\u00e1ntico, rol, contenido, etiquetas, conceptos, niveles de confianza e importancia, alcance de visibilidad, referencias y relaciones tipadas. La cadena garantiza que cada registro conserva un enlace criptogr\u00e1fico con el anterior.<\/p>\n<h3>Una memoria para agentes que prioriza integridad y portabilidad<\/h3>\n<p>Uno de los puntos m\u00e1s destacados del dise\u00f1o es que no se presenta como blockchain p\u00fablica ni como sistema de consenso distribuido. El documento aclara que la cadena hash cumple una funci\u00f3n de evidencia de manipulaci\u00f3n. Es decir, permite detectar alteraciones locales o inconsistencias en cascada, pero no promete tolerancia bizantina ni coordinaci\u00f3n descentralizada entre m\u00faltiples nodos.<\/p>\n<p>La integridad se apoya en SHA-256 y en una serializaci\u00f3n can\u00f3nica bincode. Bajo esa l\u00f3gica, si un registro cambia, su hash deja de coincidir o rompe el enlace con el thought siguiente. Esa propiedad, seg\u00fan el texto, dificulta que un agente o un operador falsifique la historia sin recalcular toda la cadena posterior.<\/p>\n<p>El sistema tambi\u00e9n contempla firmas opcionales Ed25519 para reforzar procedencia. Esto a\u00f1ade una capa de autenticidad sobre registros individuales cuando el agente productor tiene una clave p\u00fablica previamente registrada. Para entornos donde varios agentes comparten memoria, esa funci\u00f3n puede resultar relevante en auditor\u00eda y trazabilidad operativa.<\/p>\n<p>Otro aspecto central es la portabilidad. MentisDB se distribuye como un \u00fanico crate de Rust y puede operar con daemon opcional que expone superficies MCP, REST y HTTPS. Adem\u00e1s, no necesita una base de datos externa y evita depender de servicios de nube o de LLM dentro de la ruta principal de ingesti\u00f3n y recuperaci\u00f3n.<\/p>\n<p>Ese \u00e9nfasis responde a un problema pr\u00e1ctico del ecosistema de IA. Hoy muchas memorias quedan atrapadas dentro de un proveedor, una interfaz o un marco espec\u00edfico. La propuesta busca que puedan trasladarse entre harnesses como Claude Code, Codex, Copilot, Cursor o Qwen sin perder estructura ni verificabilidad.<\/p>\n<h3>C\u00f3mo organiza y entiende los recuerdos<\/h3>\n<p>MentisDB no solo guarda contenido. Tambi\u00e9n intenta clasificarlo. Para eso define un \u00e1lgebra sem\u00e1ntica con 30 variantes de tipos de thought y 8 variantes de rol. La idea es separar lo que una memoria significa de c\u00f3mo se utiliza dentro del flujo de trabajo del sistema.<\/p>\n<p>Entre los tipos aparecen categor\u00edas vinculadas con preferencias de usuario, rasgos, observaciones, hallazgos, hip\u00f3tesis, sorpresas, errores, correcciones, lecciones aprendidas, planes, decisiones, preguntas, ideas, experimentos, acciones tomadas, estados, checkpoints y res\u00famenes. El documento sostiene que esa taxonom\u00eda permite distinguir mejor una observaci\u00f3n factual de una correcci\u00f3n o de una reformulaci\u00f3n conceptual.<\/p>\n<p>En paralelo, los roles incluyen memoria, memoria de trabajo, resumen, compresi\u00f3n, checkpoint, handoff, auditor\u00eda y retrospectiva. Combinados con los tipos, producen 240 posiciones sem\u00e1nticas distintas. El beneficio pr\u00e1ctico es que un mismo contenido puede clasificarse seg\u00fan su significado y tambi\u00e9n seg\u00fan la funci\u00f3n que cumple en la operaci\u00f3n del agente.<\/p>\n<p>La propuesta suma adem\u00e1s relaciones tipadas entre thoughts. Entre ellas figuran referencias, res\u00famenes, correcciones, invalidaciones, causalidad, soporte, contradicci\u00f3n, derivaci\u00f3n, continuidad, ramificaci\u00f3n, relaci\u00f3n general y supersedes. Esta \u00faltima se usa para reemplazar un encuadre previo sin afirmar necesariamente que el original era falso.<\/p>\n<p>El sistema incorpora tambi\u00e9n validez temporal de aristas. Cada relaci\u00f3n puede tener intervalos valid_at e invalid_at. Con ello, el motor puede responder consultas del tipo \u201cqu\u00e9 sab\u00eda el agente en un momento espec\u00edfico\u201d, una capacidad \u00fatil en auditor\u00eda, depuraci\u00f3n y reconstrucci\u00f3n hist\u00f3rica de decisiones automatizadas.<\/p>\n<h3>Recuperaci\u00f3n h\u00edbrida: l\u00e9xico, vectores, grafos y ranking<\/h3>\n<p>En recuperaci\u00f3n de memoria, MentisDB no apuesta por una sola t\u00e9cnica. El documento describe una tuber\u00eda h\u00edbrida que combina se\u00f1ales l\u00e9xicas, sem\u00e1nticas y de grafo. El objetivo es elevar la precisi\u00f3n sin depender exclusivamente de embeddings ni de coincidencias exactas de palabras.<\/p>\n<p>La base l\u00e9xica utiliza BM25 por campo, con compuertas de frecuencia documental para evitar que t\u00e9rminos demasiado comunes contaminen la relevancia. Los pesos por defecto favorecen no solo el contenido, sino tambi\u00e9n etiquetas, conceptos, identificador del agente y datos del registro asociado. Tambi\u00e9n se aplica stemming de Porter y una tabla de unos 170 lemas de verbos irregulares para mejorar la normalizaci\u00f3n.<\/p>\n<p>Cuando existe sidecar vectorial, el sistema suma similitud coseno mediante una fusi\u00f3n suave vector-l\u00e9xica. El documento explica que esa f\u00f3rmula da un fuerte impulso a coincidencias sem\u00e1nticas puras cuando la se\u00f1al l\u00e9xica es baja, pero reduce ese refuerzo a medida que crece la puntuaci\u00f3n textual. Con ello intenta evitar las discontinuidades de otros enfoques por tramos.<\/p>\n<p>La tercera capa es el grafo. MentisDB expande resultados semilla mediante BFS acotado sobre relaciones tipadas, con pesos distintos seg\u00fan la naturaleza del enlace. Por ejemplo, ContinuesFrom recibe 0,60, BranchesFrom 0,55, Corrects e Invalidates 0,50, Supersedes 0,45 y References 0,06. La proximidad decrece con la profundidad.<\/p>\n<p>A eso se a\u00f1ade una se\u00f1al de cohesi\u00f3n de sesi\u00f3n. Si una coincidencia l\u00e9xica no es suficientemente fuerte para sostenerse sola, el sistema puede reforzar thoughts cercanos en orden de anexado dentro de una ventana limitada. La intenci\u00f3n es rescatar turns contiguos que quiz\u00e1 no repiten t\u00e9rminos de la consulta, pero s\u00ed forman parte del mismo episodio.<\/p>\n<p>La importancia tambi\u00e9n cuenta. MentisDB pondera cada thought con base en f_imp, de modo que entradas con mayor valor sem\u00e1ntico o relevancia operativa puedan ganar desempates estrechos. Finalmente, si se activa reranking, el motor fusiona listados con Reciprocal Rank Fusion, una t\u00e9cnica aritm\u00e9tica que mezcla ranking l\u00e9xico, vectorial y de grafo sin llamar a modelos externos.<\/p>\n<h3>Deduplicaci\u00f3n, almacenamiento y operaci\u00f3n local<\/h3>\n<p>La deduplicaci\u00f3n es otro componente importante. MentisDB aplica una prueba de similitud de Jaccard sobre conjuntos de tokens normalizados. Si un nuevo thought supera un umbral configurable frente a una ventana reciente, el sistema emite autom\u00e1ticamente una relaci\u00f3n Supersedes hacia el registro previo m\u00e1s parecido.<\/p>\n<p>Esa decisi\u00f3n no borra contenido. El thought anterior se conserva por razones de auditor\u00eda, pero queda marcado dentro de un conjunto de invalidaci\u00f3n precomputado. Gracias a ello, la recuperaci\u00f3n puede omitir o despriorizar recuerdos reemplazados en tiempo constante. El documento fija una ventana por defecto de 64 registros y se\u00f1ala que, con un m\u00e1ximo t\u00edpico de 200 tokens por thought, el costo se mantiene en una constante razonable sobre la ruta de anexado.<\/p>\n<p>En almacenamiento, la implementaci\u00f3n principal usa BinaryStorageAdapter. Cada thought se serializa con bincode y prefijo de longitud en archivos .tcbin. Hay dos modos de durabilidad: Strict, con flush confirmado y ventana de group commit de 2 ms, y Buffered, que agrupa registros y puede perder hasta 15 entradas ante un fallo duro, a cambio de mayor rendimiento.<\/p>\n<p>La estructura de archivos incluye registros de agentes, sidecars vectoriales, almacenamiento de skills y material TLS. Adem\u00e1s, existe un adaptador heredado de solo lectura para migrar cadenas .jsonl de la versi\u00f3n V0. En cuanto a evoluci\u00f3n de esquema, MentisDB define un espacio lineal de versiones V0 a V3 y migraciones idempotentes que reconstruyen la cadena bajo el esquema actual para evitar costos repetidos en aperturas futuras.<\/p>\n<p>Desde el punto de vista operativo, el daemon mentisdbd ofrece comandos de CLI, un servidor MCP en el puerto 9471 y REST en 9472. El texto menciona 35 herramientas MCP para bootstrap, anexado, b\u00fasqueda, lectura, exportaci\u00f3n, importaci\u00f3n, registro de agentes, gesti\u00f3n de cadenas y skills. Tambi\u00e9n se describe un protocolo de inicio donde el agente lee una skill central, abre o crea la cadena y carga contexto reciente.<\/p>\n<h3>Resultados, l\u00edmites y posici\u00f3n frente a otros sistemas<\/h3>\n<p>En evaluaci\u00f3n emp\u00edrica, el documento reporta resultados sobre LoCoMo y LongMemEval. En LoCoMo-2P, MentisDB alcanza R@10 de 88,7%. En LoCoMo-10P, sobre 1.977 consultas, registra R@10 de 72,0% en la versi\u00f3n 0.8.9, tras haber llegado a 74,6% en la 0.8.5. En LongMemEval, la versi\u00f3n 0.8.9 muestra R@5 de 66,8% y R@10 de 74,1%.<\/p>\n<p>La evoluci\u00f3n hist\u00f3rica sugiere que varias mejoras provinieron de ajustes concretos, como stemming de Porter, balance entre se\u00f1al vectorial y l\u00e9xica, cohesi\u00f3n de sesi\u00f3n, compuerta DF y embeddings FastEmbed MiniLM. Seg\u00fan el documento, la mejora de LoCoMo-10P en la 0.8.5 estuvo ligada al aumento del radio y refuerzo de cohesi\u00f3n, la duplicaci\u00f3n de pesos de arista y el cambio desde hashing de texto hacia embeddings de oraciones.<\/p>\n<p>El an\u00e1lisis de fallos cercanos en LoCoMo-10P v0.8.5 ofrece un dato revelador. De 503 fallos donde la respuesta dorada no apareci\u00f3 en el top 10, 130 estaban en R@20, 285 en R@50 y 218 quedaron por encima de 50. El texto interpreta ese 43,3% como un techo duro para recuperaci\u00f3n puramente BM25 en ese benchmark, lo que refuerza la necesidad de se\u00f1ales sem\u00e1nticas y expansi\u00f3n adicional.<\/p>\n<p>En cuanto al posicionamiento competitivo, MentisDB se compara con Mem0, Graphiti o Zep, y Letta o MemGPT. Seg\u00fan la fuente, su diferenciador es reunir almacenamiento embebido, dependencia cero de LLM en el n\u00facleo, integridad criptogr\u00e1fica por cadena hash y recuperaci\u00f3n h\u00edbrida BM25 m\u00e1s vectores m\u00e1s grafo en un solo binario est\u00e1tico. Tambi\u00e9n reconoce brechas, como falta de ontolog\u00edas por cadena, extracci\u00f3n de memoria guiada por LLM, extensi\u00f3n de navegador y contabilidad de tokens por thought.<\/p>\n<p>El trabajo concluye que la memoria para agentes necesita dejar de ser un parche. MentisDB intenta responder a ese problema con una arquitectura formalizada, local y auditable. Sus limitaciones siguen siendo claras, sobre todo en recuperaci\u00f3n l\u00e9xica y en ausencia de consenso distribuido, pero el planteamiento abre una ruta interesante para sistemas de IA que necesiten recordar, justificar y transferir lo que saben con mayor rigor t\u00e9cnico.<\/p>\n<hr>\n<p><em>Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio P\u00fablico.<\/em><\/p>\n<p><em>Este art\u00edculo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisi\u00f3n.<\/em><\/p>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Un nuevo documento t\u00e9cnico plantea que la memoria de largo plazo para agentes de IA no deber\u00eda depender de archivos improvisados, contexto ef\u00edmero ni servicios [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":134588,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[17873,11538,285,25141,30056,639,31875,1268,248,3299],"class_list":["post-134587","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-agentica","tag-cadena","tag-crypto","tag-depender","tag-hibrida","tag-memoria","tag-mentisdb","tag-noticias","tag-propone","tag-recuperacion"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/134587","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=134587"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/134587\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/134588"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=134587"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=134587"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=134587"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}