El secretario de Defensa de Estados Unidos, Pete Hegseth, prometió eliminar a Anthropic de la cadena de suministro de su agencia si la compañía se negaba a permitir que su tecnología de inteligencia artificial (IA) se utilizara en aplicaciones militares.
«Continuamos manteniendo conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del gobierno de acuerdo con lo que nuestros modelos pueden hacer de manera confiable y responsable», afirmó Anthropic en un comunicado.
Un alto funcionario del Pentágono dijo que Anthropic tenía hasta el viernes por la noche para cumplir.
Una fuente dijo a la BBC que el tono de la discusión entre Hegseth y Amodei fue cordial, pero Amodei expuso lo que Anthropic considera sus líneas rojas.
El uso de herramientas antrópicas para la vigilancia doméstica masiva constituye otra línea roja, dijo la fuente.
Pero el funcionario del Pentágono dijo a la BBC que el conflicto actual entre la agencia y Anthropic no está relacionado con el uso de armas autónomas o vigilancia masiva.
El funcionario dijo que si Anthropic no cumplía, Hegseth se aseguraría de que se invocara la Ley de Producción de Defensa en la empresa.
Esa medida podría obligar a los ejecutivos de Anthropic a permitir el uso irrestricto por parte del Pentágono por razones de seguridad nacional.
El funcionario agregó que el Pentágono etiquetaría simultáneamente a Anthropic como un riesgo para la cadena de suministro.
Un portavoz de Anthropic dijo que Amodei «expresó su agradecimiento por el trabajo del Departamento y agradeció al Secretario por su servicio» durante la reunión con Hegseth.
Anthropic es el creador del chatbot de inteligencia artificial Claude y fue una de las cuatro empresas de inteligencia artificial que obtuvieron contratos con el Pentágono el verano pasado.
Google, OpenAI, fabricante de ChatGPT, y xAI, de Elon Musk, que fabrica el chatbot de inteligencia artificial Grok, también obtuvieron contratos de hasta 200 millones de dólares (148 millones de libras) cada uno.
Emil Michael, funcionario del Departamento de Defensa, dijo anteriormente que la agencia quiere que OpenAI, Google, xAI y Anthropic permitan al Pentágono «poder usar cualquier modelo para todos los casos de uso legales».
Anthropic siempre ha buscado posicionarse como un enfoque más orientado a la seguridad para la investigación de IA en comparación con sus rivales.
Comparte periódicamente con el público informes de seguridad sobre sus propios productos.
Uno de esos informes del año pasado reconoció que su tecnología de IA había sido «utilizada como arma» por piratas informáticos que la usaron para llevar a cabo sofisticados ciberataques.
La imagen de la compañía fue cuestionada luego de informes de que el ejército estadounidense utilizó su modelo de inteligencia artificial Claude durante la operación que condujo a la captura del expresidente venezolano Nicolás Maduro en enero.
Anthropic fue la primera empresa tecnológica aprobada para trabajar en las redes militares clasificadas del Pentágono y tiene asociaciones con empresas como Palantir.
Fuentes dijeron a la BBC que el modelo Claude fue utilizado en la operación Maduro a través de un contrato con Palantir.
La posición del Pentágono es que Anthropic no debería tener voz ni voto en cómo el Pentágono utiliza sus productos.
Los observadores dicen que la disputa actual entre Anthropic y el Pentágono es resultado de una violación de la confianza entre ambas partes.
«Necesitan llegar a una solución», según Emelia Probasco, investigadora principal del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.
«En mi opinión, deberíamos brindarles a las personas a quienes solicitamos servicios todas las ventajas posibles. Les debemos entender esto», dijo Probasco.
