{"id":133540,"date":"2026-04-06T23:09:17","date_gmt":"2026-04-07T05:09:17","guid":{"rendered":"https:\/\/pongara.net\/news\/desarrollador-acusa-que-claude-entrega-mentiras-y-se-comporta-como-un-modelo-roto\/"},"modified":"2026-04-06T23:09:17","modified_gmt":"2026-04-07T05:09:17","slug":"desarrollador-acusa-que-claude-entrega-mentiras-y-se-comporta-como-un-modelo-roto","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/desarrollador-acusa-que-claude-entrega-mentiras-y-se-comporta-como-un-modelo-roto\/","title":{"rendered":"Desarrollador acusa que Claude entrega mentiras y se comporta como un modelo roto"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775534679-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775534679-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775534679-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775534679-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775534679.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>Las cr\u00edticas hacia Claude volvieron a escalar luego de que el desarrollador Dan Woods afirmara que el modelo le entreg\u00f3 un registro de investigaci\u00f3n \u201clleno de mentiras\u201d y se comporta como si estuviera \u201croto\u201d. Sus comentarios reavivan el debate sobre la fiabilidad real de los asistentes de IA cuando se usan para tareas complejas de investigaci\u00f3n y desarrollo.<br \/>\n***<\/strong><\/p>\n<ul>\n<li><strong>Dan Woods asegur\u00f3 que una noche completa de \u201cautorresearch\u201d termin\u00f3 en un archivo markdown con afirmaciones falsas.<\/strong><\/li>\n<li><strong>El desarrollador dijo que el problema no parece una simple degradaci\u00f3n de contexto, sino un modelo \u201croto\u201d.<\/strong><\/li>\n<li><strong>Tambi\u00e9n cuestion\u00f3 la utilidad de Claude para ingenier\u00eda de agentes locales, incluso pagando el plan Ultra.<\/strong><\/li>\n<\/ul>\n<p>\u00a0<\/p>\n<hr>\n<blockquote class=\"twitter-tweet\">\n<p lang=\"es\" dir=\"ltr\"><img decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/1f6a8-11.png\" alt=\"\ud83d\udea8\" class=\"wp-smiley\" style=\"height: 1em; max-height: 1em;\"> Desarrollador acusa a Claude de entregar informaci\u00f3n falsa <img decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/1f6a8-11.png\" alt=\"\ud83d\udea8\" class=\"wp-smiley\" style=\"height: 1em; max-height: 1em;\"><\/p>\n<p>Dan Woods afirma que el modelo de Anthropic produce resultados enga\u00f1osos durante la investigaci\u00f3n.<\/p>\n<p>Resalt\u00f3 que sus hallazgos vienen con apariencias s\u00f3lidas pero son incorrectos.<\/p>\n<p>Critica la fiabilidad en tareas\u2026 <a href=\"https:\/\/t.co\/4M7MX9b38F\">pic.twitter.com\/4M7MX9b38F<\/a><\/p>\n<p>\u2014 Diario\u0e3fitcoin\uea00 (@DiarioBitcoin) <a href=\"https:\/\/twitter.com\/DiarioBitcoin\/status\/2041440122114060635?ref_src=twsrc%5Etfw\">April 7, 2026<\/a><\/p>\n<\/blockquote>\n<p>Las dudas sobre la confiabilidad de los modelos de inteligencia artificial volvieron a quedar sobre la mesa tras una serie de publicaciones del desarrollador Dan Woods, conocido en X como @danveloper. El programador afirm\u00f3 que Claude, el asistente desarrollado por Anthropic, produjo resultados enga\u00f1osos durante una sesi\u00f3n de investigaci\u00f3n automatizada y describi\u00f3 la experiencia en t\u00e9rminos especialmente duros.<\/p>\n<p>Seg\u00fan relat\u00f3, pas\u00f3 toda una noche usando funciones de investigaci\u00f3n automatizada, pero el resultado final fue un archivo en markdown \u201clleno de mentiras\u201d. Su cr\u00edtica no se limit\u00f3 a errores menores o imprecisiones aisladas. Woods sostuvo que, cuando se le pide al sistema probar sus hallazgos y mostrar el trabajo realizado, Claude responde con confianza mediante vi\u00f1etas y tablas en markdown que aparentan solidez, aunque el contenido sea incorrecto.<\/p>\n<p>El comentario principal fue publicado el 6 de abril de 2026. All\u00ed escribi\u00f3 que estaba \u201cen un punto diferente\u201d esa ma\u00f1ana y que le resultaba dif\u00edcil no sentir que Claude no estaba \u201ctrabajando activamente\u201d en su contra. La frase reflej\u00f3 un nivel de frustraci\u00f3n mayor al habitual en debates sobre IA, donde las quejas suelen concentrarse en alucinaciones, falta de contexto o respuestas incompletas.<\/p>\n<p>Para lectores menos familiarizados con este tipo de herramientas, el problema se\u00f1alado no es solo que un modelo se equivoque. La preocupaci\u00f3n central aparece cuando el sistema presenta datos falsos con una estructura convincente, citas aparentes o tablas bien organizadas, porque eso puede hacer m\u00e1s dif\u00edcil detectar errores, sobre todo en flujos de trabajo t\u00e9cnicos o de investigaci\u00f3n.<\/p>\n<p>Horas despu\u00e9s, Woods profundiz\u00f3 su malestar al responder a otros usuarios. En una de esas respuestas dijo que muchas personas fueron entusiasmadas con \u201cel futuro\u201d, recibieron \u201cel mayor avance de la historia\u201d y luego, seg\u00fan su visi\u00f3n, eso les fue retirado en silencio. A\u00f1adi\u00f3 que la situaci\u00f3n le parec\u00eda triste, pero tambi\u00e9n aterradora, porque la confianza construida en estas herramientas puede ponerse en duda de un momento a otro.<\/p>\n<p>Ese punto es clave en el debate actual sobre inteligencia artificial aplicada a programaci\u00f3n y productividad. En entornos profesionales, la utilidad de estos sistemas depende menos de demostraciones espectaculares y m\u00e1s de su consistencia diaria. Un modelo puede ser muy potente en pruebas aisladas, pero si el usuario percibe que ya no puede confiar en los resultados, su adopci\u00f3n pr\u00e1ctica se resiente de inmediato.<\/p>\n<p>Woods tambi\u00e9n rechaz\u00f3 la idea de que el problema fuera una simple degradaci\u00f3n de contexto, es decir, una p\u00e9rdida progresiva de precisi\u00f3n cuando la conversaci\u00f3n se hace m\u00e1s larga o compleja. Se\u00f1al\u00f3 que ese tipo de limitaci\u00f3n ya es conocida por la comunidad. En su opini\u00f3n, lo que estaba observando era distinto y m\u00e1s grave.<\/p>\n<p>\u201cEsto es en realidad un modelo roto\u201d, escribi\u00f3 en otra respuesta. La frase, breve pero contundente, elev\u00f3 el tono de la discusi\u00f3n. No aport\u00f3 pruebas t\u00e9cnicas detalladas en esas publicaciones, pero s\u00ed dej\u00f3 claro que, a su juicio, el comportamiento del sistema iba m\u00e1s all\u00e1 de las fallas esperadas en un asistente conversacional de gran escala.<\/p>\n<h3>Hip\u00f3tesis sobre la causa y dudas sobre el ajuste del modelo<\/h3>\n<p>En otro intercambio, Woods coment\u00f3 que no cre\u00eda que alguien estuviera aplicando aprendizaje por refuerzo continuo a un modelo en l\u00ednea, una referencia que evoc\u00f3 \u201clos a\u00f1os del desastre de Tay\u201d. Con ello aludi\u00f3 a uno de los casos m\u00e1s recordados de fallas en sistemas de IA expuestos al aprendizaje en tiempo real en entornos abiertos.<\/p>\n<div class=\"diari-in-content-middle diari-entity-placement\" id=\"diari-2057886364\">\n<div id=\"diari-3470115240\" data-diari-trackid=\"221185\" data-diari-trackbid=\"1\" class=\"diari-target diari-target\"><a data-no-instant=\"1\" href=\"https:\/\/youhodler.onelink.me\/IPBU\/lciii2ua\" rel=\"noopener\" class=\"a2t-link\" target=\"_blank\" aria-label=\"20stable - 1200x250_1\"><img fetchpriority=\"high\" decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/20stable-1200x250_1-13.gif\" alt=\"20stable - 1200x250_1\" width=\"1200\" height=\"250\" style=\" max-width: 100%; height: auto;\"><\/a><\/div>\n<\/div>\n<p>En lugar de esa explicaci\u00f3n, dijo que prefer\u00eda creer que el problema obedec\u00eda a un \u201cartefacto de cuantizaci\u00f3n\u201d. Seg\u00fan plante\u00f3, eso podr\u00eda haber estado orientado a darle a Anthropic mayor capacidad para escalar y llevar un nuevo modelo hasta la meta. La cuantizaci\u00f3n es una t\u00e9cnica usada para reducir los requisitos computacionales de los modelos, a veces con costos de precisi\u00f3n o estabilidad, aunque Woods no present\u00f3 evidencias concluyentes de que ese fuera el origen del problema.<\/p>\n<p>Su comentario no debe leerse como una confirmaci\u00f3n t\u00e9cnica, sino como una hip\u00f3tesis personal lanzada en medio del debate. Aun as\u00ed, refleja una preocupaci\u00f3n extendida entre usuarios avanzados de IA: que decisiones de optimizaci\u00f3n, despliegue o ajuste puedan alterar de forma perceptible la calidad de un modelo ya conocido por la comunidad.<\/p>\n<p>Cuando estas inquietudes aparecen, el efecto suele ir m\u00e1s all\u00e1 de una sola plataforma. El mercado de IA generativa se ha vuelto altamente competitivo, y usuarios profesionales comparan constantemente herramientas de OpenAI, Anthropic, Google y otros proveedores. Por eso, una ca\u00edda percibida en el rendimiento puede traducirse r\u00e1pidamente en migraci\u00f3n de flujos de trabajo hacia alternativas rivales.<\/p>\n<p>La molestia de Woods incluso se traslad\u00f3 al plano pr\u00e1ctico. En una de sus respuestas coment\u00f3 que estaba pensando en c\u00f3mo tendr\u00eda que instalar VS Code otra vez, acompa\u00f1ando la idea con un \u201cugh\u201d. Aunque breve, el comentario sugiri\u00f3 una posible vuelta a herramientas o rutinas de desarrollo m\u00e1s tradicionales, fuera de los entornos asistidos que dependen de modelos de IA.<\/p>\n<p>M\u00e1s tarde, en otra respuesta, resumi\u00f3 el ambiente general con una frase a\u00fan m\u00e1s dram\u00e1tica: \u201cTodos nos estamos ahogando\u201d. Ese tipo de mensajes no constituye una evaluaci\u00f3n t\u00e9cnica formal, pero s\u00ed ofrece una se\u00f1al sobre el estado de \u00e1nimo de una parte de la comunidad m\u00e1s intensiva en el uso de estos sistemas.<\/p>\n<h3>El caso reabre el debate sobre confianza, agentes locales y planes premium<\/h3>\n<p>La discusi\u00f3n no qued\u00f3 solo en la calidad general de Claude. Woods tambi\u00e9n habl\u00f3 sobre su utilidad en tareas m\u00e1s espec\u00edficas. En una respuesta publicada el 7 de abril de 2026, indic\u00f3 que s\u00ed paga el plan Ultra, pero que no est\u00e1 de acuerdo con la idea de que sea un buen modelo para la ingenier\u00eda de agentes locales.<\/p>\n<p>Esa observaci\u00f3n importa porque los agentes locales se han convertido en uno de los campos de mayor inter\u00e9s dentro del ecosistema de IA aplicada. En este contexto, un \u201cagente\u201d es un sistema que no solo responde preguntas, sino que ejecuta secuencias de acciones, consulta archivos, usa herramientas y toma decisiones dentro de un flujo de trabajo m\u00e1s amplio. Para ese tipo de uso, la tolerancia al error suele ser mucho menor.<\/p>\n<p>Adem\u00e1s, Woods a\u00f1adi\u00f3 que tampoco le gusta el aprendizaje por refuerzo que tiene el modelo. De nuevo, no desarroll\u00f3 en ese hilo un an\u00e1lisis profundo sobre qu\u00e9 ajustes espec\u00edficos considera problem\u00e1ticos. Sin embargo, su cr\u00edtica apunta a una tensi\u00f3n constante en el dise\u00f1o de asistentes de IA: mejorar obediencia, seguridad o estilo de respuesta puede alterar la utilidad percibida por usuarios t\u00e9cnicos que priorizan precisi\u00f3n y control.<\/p>\n<p>El episodio tambi\u00e9n muestra c\u00f3mo las redes sociales se han convertido en un term\u00f3metro informal del desempe\u00f1o de los modelos comerciales. Aunque una cadena de publicaciones no equivale a una auditor\u00eda independiente, s\u00ed puede influir en la narrativa del mercado, sobre todo cuando proviene de usuarios acostumbrados a probar estas herramientas en tareas reales de programaci\u00f3n e investigaci\u00f3n.<\/p>\n<p>Hasta el momento, las publicaciones de Woods retratan una p\u00e9rdida de confianza m\u00e1s que un incidente aislado. Su mensaje central fue que no est\u00e1 lidiando simplemente con errores normales de un modelo grande, sino con una degradaci\u00f3n que percibe como estructural. Esa diferencia es importante porque redefine la conversaci\u00f3n: ya no se trata solo de corregir fallas puntuales, sino de recuperar credibilidad.<\/p>\n<p>En una industria que avanza a gran velocidad, la confianza del usuario es uno de los activos m\u00e1s fr\u00e1giles. Cuando un asistente de IA produce respuestas falsas con apariencia ordenada y segura, el costo no siempre es inmediato, pero puede acumularse en forma de tiempo perdido, decisiones equivocadas y abandono de la herramienta. Las cr\u00edticas de Woods, por s\u00ed solas, no prueban una falla generalizada, pero s\u00ed subrayan una inquietud que el sector todav\u00eda no ha resuelto por completo: c\u00f3mo garantizar fiabilidad cuando la interfaz del error luce tan convincente como la del acierto.<\/p>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Las cr\u00edticas hacia Claude volvieron a escalar luego de que el desarrollador Dan Woods afirmara que el modelo le entreg\u00f3 un registro de investigaci\u00f3n \u201clleno [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":133541,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[2081,14038,285,4044,2824,27261,2532,1268],"class_list":["post-133540","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-claude","tag-comporta","tag-crypto","tag-desarrollador","tag-entrega","tag-mentiras","tag-modelo","tag-noticias"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/133540","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=133540"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/133540\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/133541"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=133540"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=133540"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=133540"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}