El jefe de Anthropic rechaza la demanda del Pentágono de eliminar las salvaguardas de la IA

PUBLICIDAD

Anthropic ha dicho que no dará marcha atrás en una pelea con el Departamento de Defensa de Estados Unidos (DoD) sobre cómo se utiliza su tecnología de inteligencia artificial (IA).

Sus comentarios se producen dos días después de una reunión con el secretario de Defensa de EE. UU., Pete Hegseth, sobre las exigencias de que Anthropic acepte «cualquier uso legal» de sus herramientas. La reunión concluyó con la amenaza de retirar a Anthropic de la cadena de suministro del Departamento de Defensa.

«Estas amenazas no cambian nuestra posición: no podemos en conciencia acceder a su petición», afirmó Amodei.

Lo que está en juego para Anthropic es el uso potencial de sus herramientas de IA como Claude para dos propósitos: «vigilancia doméstica masiva» y «armas totalmente autónomas».

PUBLICIDAD

El Departamento de Guerra es un nombre secundario para el Departamento de Defensa según una orden ejecutiva firmada por el presidente de Estados Unidos, Donald Trump, en septiembre.

«Si el Departamento decide retirarse de Anthropic, trabajaremos para facilitar una transición sin problemas a otro proveedor», afirmó Amodei.

Una portavoz de Anthropic agregó el jueves que, si bien la compañía recibió el miércoles por la noche un texto actualizado del Departamento de Defensa para su contrato, éste «prácticamente no representa ningún progreso en la prevención del uso de Claude para la vigilancia masiva de estadounidenses o en armas totalmente autónomas».

«El nuevo lenguaje, presentado como un compromiso, se combinó con jerga legal que permitía ignorar dichas salvaguardias a voluntad», declaró. «A pesar de las recientes declaraciones públicas [del Departamento de Guerra], estas limitadas salvaguardias han sido el eje central de nuestras negociaciones durante meses».

No fue posible contactar a un representante del Departamento de Defensa para que hiciera comentarios.

Emil Michael, subsecretario de Defensa de Estados Unidos, atacó personalmente a Amodei el jueves por la noche, escribiendo en X que el ejecutivo «no quiere nada más que intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y no tiene ningún problema en poner en riesgo la seguridad de nuestra nación».

En una entrevista con CBS News, Michael dijo: «En cierto nivel, tienes que confiar en que tus militares harán lo correcto».

Los usos de la IA que Anthropic teme ya están prohibidos por la ley y las políticas del Pentágono, afirmó. Y al preguntársele por qué el Pentágono no aceptaba el texto contractual exigido por Anthropic, respondió: «Tenemos que estar preparados para lo que está haciendo China».

Un funcionario del Pentágono le dijo previamente a la BBC que si Anthropic no cumplía, Hegseth se aseguraría de que se invocara la Ley de Producción de Defensa en la empresa.

La ley esencialmente otorga al presidente de Estados Unidos la autoridad de considerar que una determinada empresa o su producto es tan importante que el gobierno puede exigirle que satisfaga las necesidades de defensa.

Pero Hegseth también amenazó con etiquetar a Anthropic como un «riesgo para la cadena de suministro», lo que significa que la empresa sería designada como no lo suficientemente segura para el uso del gobierno.

A former DoD official who asked not to be named told the BBC on Thursday that Hegseth’s grounds for either measure were «extremely flimsy».

A person familiar with the negotiations who asked not to be named said tensions between Anthropic and the Pentagon «go back several months,» before it was publicly known that Claude was used as part of a US operation to seize Venezuelan President Nicolás Maduro.

While Amodei did not specify exactly how Anthropic could be or had been used by the DoD for mass surveillance or fully autonomous weapons, he wrote in a company blog post that AI can be used to «assemble scattered, individually innocuous data into a comprehensive picture of any person’s life – automatically and at massive scale.»

«We support the use of AI for lawful foreign intelligence and counterintelligence missions,» Amodei said. «But using these systems for mass domestic surveillance is incompatible with democratic values.»

As for AI being used in weapons, Amodei said even today’s most advanced and capable AI systems «are simply not reliable enough to power fully autonomous weapons.»

«We will not knowingly provide a product that puts America’s warfighters and civilians at risk,» Amodei said. «Without proper oversight, fully autonomous weapons cannot be relied upon to exercise the critical judgment that our highly trained, professional troops exhibit every day. They need to be deployed with proper guardrails, which don’t exist today.»

He added that Anthropic had «offered to work directly with the Department of War on R&D to improve the reliability of these systems, but they have not accepted this offer.»

Hegseth had demanded the Tuesday meeting with Amodei, a source previously told the BBC.