Anthropic desafía al Departamento de Guerra: no quitará límites de Claude para vigilancia doméstica y armas autónomas

Anthropic aseguró que Claude ya se usa de forma amplia en redes clasificadas y misiones críticas del gobierno de EE.UU., pero trazó dos líneas rojas: no habilitar vigilancia masiva doméstica ni apoyar armas completamente autónomas. Dario Amodei afirma que el Departamento de Guerra ahora exige eliminar esas salvaguardias bajo la consigna de “cualquier uso legal”, y advierte que la IA podría socavar valores democráticos si se despliega sin límites.
***

  • Anthropic dice que fue la primera empresa de “IA fronteriza” en llevar sus modelos a redes clasificadas del gobierno de EE.UU. y a Laboratorios Nacionales, y que Claude está ampliamente desplegado en el Departamento de Guerra.
  • Dario Amodei afirma que la empresa no aceptará dos usos: vigilancia masiva doméstica y armas completamente autónomas, por riesgos a libertades civiles y por falta de confiabilidad de la tecnología actual.
  • Según Amodei, el Departamento de Guerra habría amenazado con sacar a Anthropic de sus sistemas y hasta con etiquetarla como “riesgo de la cadena de suministro”, además de invocar la Ley de Producción de Defensa para forzar cambios.

La empresa de inteligencia artificial Anthropic intensificó el debate sobre el uso militar de modelos avanzados al revelar un desacuerdo directo con el Departamento de Guerra de Estados Unidos. En una declaración pública, su CEO, Dario Amodei, sostuvo que la compañía cree en el papel “existencial” de la IA para defender a EE.UU. y otras democracias, pero insistió en que existen usos que pueden socavar esos mismos valores.

El punto de quiebre, según Amodei, es una exigencia del Departamento: que los proveedores de IA acepten “cualquier uso legal” y eliminen salvaguardias específicas. Anthropic afirma que ya coopera de forma amplia con seguridad nacional, pero se niega a retirar dos límites que considera esenciales: no permitir vigilancia masiva doméstica ni habilitar armas completamente autónomas alimentadas por IA de frontera.

La controversia ocurre en un momento en que la adopción de IA generativa se acelera en sectores públicos y privados, incluyendo defensa y ciberseguridad. Para lectores del ecosistema cripto y tecnológico, la discusión toca un tema recurrente: quién controla infraestructuras críticas basadas en software, qué límites se imponen por diseño y cómo se auditan decisiones automatizadas cuando el incentivo es maximizar capacidad operativa.

Claude en seguridad nacional: despliegue y casos de uso

Amodei aseguró que Anthropic trabajó “proactivamente” para desplegar sus modelos en el Departamento de Guerra y la comunidad de inteligencia. En su recuento, la empresa dice haber sido la primera compañía de IA fronteriza en desplegar modelos en redes clasificadas del gobierno de EE.UU., la primera en desplegarlos en los Laboratorios Nacionales y la primera en proporcionar modelos personalizados para clientes de seguridad nacional.

La declaración sostiene que Claude está “ampliamente desplegado” en el Departamento de Guerra y otras agencias de seguridad nacional. Entre las aplicaciones mencionadas se incluyen análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas, además de otros usos no detallados.

Anthropic también subrayó un principio de gobernanza: el Departamento de Guerra, y no las empresas privadas, toma decisiones militares. Amodei afirmó que la compañía nunca ha objetado operaciones militares particulares ni ha intentado limitar el uso de su tecnología de manera ad hoc, sugiriendo que las restricciones que propone no buscan influir en campañas específicas, sino establecer límites generales.

El trasfondo es que los modelos de lenguaje se han convertido en herramientas multipropósito. En defensa pueden apoyar desde síntesis de información y generación de planes hasta soporte a analistas. Sin embargo, su despliegue en sistemas clasificados eleva los riesgos, porque errores, sesgos o alucinaciones pueden impactar decisiones sensibles si no se diseñan controles técnicos y humanos adecuados.

La línea roja 1: vigilancia masiva doméstica

Anthropic sostiene que apoya el uso de IA para misiones legales de inteligencia extranjera y contrainteligencia. Aun así, Amodei marcó una excepción tajante: usar estos sistemas para vigilancia masiva doméstica sería incompatible con valores democráticos y presentaría riesgos “graves y novedosos” para libertades fundamentales.

En su argumento, el problema no sería solo el acceso a datos, sino la capacidad de la IA para integrar señales dispersas. Amodei indicó que, bajo la ley actual, el gobierno puede comprar registros detallados de movimientos, navegación web y asociaciones de estadounidenses a partir de fuentes públicas sin obtener una orden judicial, y que esta práctica ya ha sido reconocida por la comunidad de inteligencia como motivo de preocupación por privacidad, además de haber generado oposición bipartidista en el Congreso.

La declaración advierte que una IA potente puede ensamblar datos “individualmente inocuos” en una imagen completa de la vida de cualquier persona, de forma automática y a gran escala. Ese salto de capacidad, según la postura de Anthropic, cambia el equilibrio entre recolección de datos y vigilancia efectiva, porque reduce drásticamente el costo de análisis y seguimiento.

Para el público tecnológico, esto se relaciona con debates sobre privacidad y vigilancia ya conocidos en el mundo digital. En cripto, por ejemplo, se discuten herramientas de trazabilidad, análisis de transacciones y el rol de la vigilancia financiera. El punto aquí es distinto pero cercano: la IA puede transformar grandes volúmenes de datos comerciales o abiertos en perfiles altamente accionables.

La línea roja 2: armas completamente autónomas

El segundo límite expuesto por Amodei apunta a armas completamente autónomas, definidas como aquellas que sacan a los humanos “del bucle” por completo y automatizan la selección y ataque de objetivos. En su declaración, reconoció que armas parcialmente autónomas, como las usadas hoy en Ucrania, son “vitales” para la defensa de la democracia.

También admitió que incluso las armas completamente autónomas podrían resultar críticas para la defensa nacional. Sin embargo, sostuvo que hoy los sistemas de IA de frontera no son lo suficientemente confiables como para alimentar ese tipo de armamento. Anthropic afirma que no proporcionará conscientemente un producto que ponga en riesgo a combatientes y civiles estadounidenses.

Amodei dijo que Anthropic ofreció trabajar directamente con el Departamento de Guerra en investigación y desarrollo para mejorar la confiabilidad de estos sistemas, pero que esa oferta no fue aceptada. Agregó que, sin supervisión adecuada, las armas completamente autónomas no pueden confiar plenamente para ejercer el juicio crítico que tropas altamente entrenadas exhiben, y que se requerirían salvaguardias que hoy no existen.

El fondo técnico de este debate es que, aunque los modelos avanzados pueden ser muy capaces, su comportamiento puede ser difícil de garantizar en escenarios adversariales. En un entorno de combate, los incentivos para engañar sensores y modelos son extremos. Por eso, la confiabilidad, verificación y control se vuelven más que un problema de producto: pasan a ser un riesgo sistémico.

Presión contractual y amenazas: “cualquier uso legal”

Según Amodei, el Departamento de Guerra declaró que solo contratará con empresas de IA que accedan a “cualquier uso legal” y eliminen las salvaguardias en los casos descritos. En la misma declaración, Anthropic sostuvo que el Departamento habría amenazado con eliminar a la empresa de sus sistemas si mantiene esos límites.

La parte más delicada del relato es la mención de dos amenazas adicionales: designar a Anthropic como un “riesgo de la cadena de suministro” y, además, invocar la Ley de Producción de Defensa para forzar la eliminación de las salvaguardias. Amodei describió la etiqueta de “riesgo de la cadena de suministro” como reservada para adversarios de EE.UU. y afirmó que nunca antes se aplicó a una compañía estadounidense.

Amodei calificó esas dos amenazas como “inherentemente contradictorias”. En su lectura, una insinuaría que Anthropic representa un riesgo de seguridad, mientras la otra sugeriría que Claude es esencial para la seguridad nacional. Aun con ese escenario, dijo que la empresa no puede, “con buena conciencia”, acceder a lo solicitado.

Anthropic también afirmó que estas dos excepciones no han sido un obstáculo para acelerar la adopción y el uso de sus modelos dentro de las fuerzas armadas hasta la fecha. El mensaje busca mostrar que los límites propuestos no bloquean el grueso de aplicaciones militares, pero sí impiden dos usos que, a su juicio, cruzan umbrales éticos y técnicos.

China, controles de exportación y el costo de “renunciar” a ingresos

La declaración incorporó otro eje geopolítico: la competencia tecnológica con China. Amodei afirmó que Anthropic actuó para defender el liderazgo de EE.UU. en IA incluso cuando eso fue en contra del interés de corto plazo de la compañía.

Entre los ejemplos, indicó que Anthropic decidió renunciar a “varios cientos de millones de dólares” en ingresos al cortar el uso de Claude por empresas vinculadas al Partido Comunista Chino. Señaló que algunas de esas empresas han sido designadas por el Departamento de Guerra como Compañías Militares Chinas.

Amodei agregó que la empresa cerró ataques cibernéticos patrocinados por el Partido Comunista Chino que intentaron abusar de Claude. También dijo que Anthropic abogó por controles de exportación estrictos en chips para asegurar una ventaja democrática, alineándose con políticas que limitan el acceso a hardware avanzado.

En conjunto, estos puntos buscan reforzar la idea de que Anthropic se considera un actor alineado con objetivos de seguridad nacional. Sin embargo, el conflicto actual muestra que la alineación estratégica no elimina tensiones cuando la autoridad estatal exige flexibilidad total sobre cómo se usa una tecnología generalista.

Qué sigue: permanencia, salida o transición

Amodei afirmó que es prerrogativa del Departamento de Guerra seleccionar contratistas más alineados con su visión. Aun así, sostuvo que, dado el valor “sustancial” que la tecnología de Anthropic proporciona a las fuerzas armadas, la empresa espera que el Departamento reconsidere.

La preferencia de Anthropic, según el texto, es seguir sirviendo al Departamento y a los combatientes con las dos salvaguardias solicitadas. Pero si el Departamento decide retirar a Anthropic, la compañía aseguró que trabajará para habilitar una transición sin problemas a otro proveedor, evitando interrupciones en planificación militar en curso, operaciones u otras misiones críticas.

Finalmente, Amodei dijo que los modelos de Anthropic estarán disponibles en los términos “expansivos” propuestos durante el tiempo que sea necesario y reiteró que siguen listos para continuar su trabajo en apoyo a la seguridad nacional de EE.UU. La disputa, como la presenta la fuente Anthropic en su comunicado, condensa un dilema central de la era de IA: maximizar capacidades sin borrar límites que sostienen normas democráticas.