Disputa entre governo americano e criadora do Claude expõe tensões sobre uso militar de IA. Anthropic é acusada de ameaçar a segurança nacional
O governo dos Estados Unidos insistiu nesta terça-feira (17) que a empresa de inteligência artificial Anthropic representa um “risco inaceitável” para o abastecimento militar, justificando a decisão de classificá-la como perigosa para o país.
A classificação da Anthropic como um risco ocorreu no início deste mês, após a empresa se recusar a permitir o uso irrestrito de sua IA por militares. Em resposta, a Anthropic entrou com um processo contra o governo dos EUA. A disputa ocorre em meio a preocupações sobre o uso de inteligência artificial em aplicações militares e a segurança nacional.
O modelo de IA Claude, desenvolvido pela Anthropic, tem gerado atenção devido a relatos sobre seu possível uso na identificação de alvos para bombardeios americanos no Irã, bem como pela sua recusa em aceitar o uso ilimitado para fins militares dos EUA. A situação levanta questões éticas e de segurança sobre o controle e a aplicação de tecnologias de IA em contextos bélicos.
O Pentágono – renomeado de Departamento de Guerra (DoW) pelo governo do presidente Donald Trump – justificou o corte de laços com a Anthropic após a ação judicial movida pela empresa. Segundo um documento obtido pela AFP, manter o acesso da companhia à sua infraestrutura de combate representa um “risco inaceitável” para as cadeias de suprimentos.
“Os sistemas de IA são especialmente vulneráveis à manipulação”, acrescentou o governo em suas alegações perante um tribunal federal da Califórnia. A preocupação é que “a Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante operações bélicas em curso, se a Anthropic – a seu critério – considerar que suas ‘linhas vermelhas’ corporativas estão sendo ultrapassadas”, ressaltou o governo.
O governo americano argumenta que a recusa da Anthropic em permitir o uso de sua tecnologia em “qualquer uso legal” é um “risco inaceitável para a segurança nacional”. Segundo o documento, “o comportamento da Anthropic levou o Departamento a questionar se a Anthropic representava um parceiro confiável”. A classificação da Anthropic como “risco para a cadeia de suprimentos” pode impedir que fornecedores do governo façam negócios com ela, uma designação normalmente reservada para organizações de países adversários, como a Huawei.
Outras empresas de tecnologia dos EUA, como a Microsoft, se posicionaram a favor da Anthropic, utilizando o modelo Claude e também prestando serviços ao exército americano. A Microsoft argumentou: “Não é o momento de pôr em risco o ecossistema de IA que a administração contribuiu para impulsionar”, em um texto jurídico apresentado ao tribunal.
Com informações do G1