5 Mar (Reuters) - O Pentágono impôs uma designação formal de risco à cadeia de suprimentos ao laboratório de inteligência artificial Anthropic na quinta-feira, limitando o uso de uma tecnologia que, segundo uma fonte, estava sendo usada em operações militares no Irã.
O rótulo de "risco na cadeia de suprimentos", confirmado em uma declaração da Anthropic, entra em vigor imediatamente e impede que os contratantes do governo usem a tecnologia da Anthropic em seu trabalho para as forças armadas dos EUA.
Mas as empresas ainda podem usar o Claude da Anthropic em outros projetos não relacionados ao Pentágono, escreveu o presidente-executivo Dario Amodei no comunicado. Ele disse que a designação tem "um escopo estreito" e que as restrições se aplicam apenas ao uso da Anthropic AI em contratos com o Pentágono.
"Claramente, ela se aplica apenas ao uso do Claude por clientes como parte direta de contratos com o Departamento de Guerra, e não a todo o uso do Claude por clientes que tenham tais contratos."
A designação de risco segue uma disputa de meses sobre a insistência da empresa em salvaguardas que o Departamento de Defesa, que o governo Trump chama de Departamento de Guerra, disse que foi longe demais. Em sua declaração, Amodei reiterou que a empresa contestaria a designação no tribunal.
Nos últimos dias, a Anthropic e o Pentágono discutiram possíveis planos para que o Pentágono pare de usar o Claude, disse Amodei na declaração de quinta-feira. Ambas as partes conversaram sobre como a Anthropic ainda poderia trabalhar com os militares sem desmantelar suas salvaguardas, acrescentou.
No entanto, em um post no X na noite de quinta-feira, o diretor de tecnologia do Pentágono, Emil Michael, disse que não há negociação ativa do Departamento de Defesa com a Anthropic.
(Reportagem de Karen Freifeld em Nova York e Mike Stone em Washington D.C.; reportagem adicional de Mrinmay Dey e Chris Thomas na Cidade do México)

