','

'); } ?>

Anthropic mantém restrições e resiste a exigência do Pentágono para uso irrestrito do Claude

O confronto entre o governo do presidente dos Estados Unidos, Donald Trump, e a empresa de inteligência artificial Anthropic se intensificou nos últimos dias. O secretário de Defesa, Pete Hegseth, deu prazo até esta sexta-feira, 27, para que a companhia aceite liberar seu modelo de IA, o chatbot Claude, para aplicação militar sem limitações.

A exigência prevê que a tecnologia possa ser usada em qualquer operação considerada lícita pelo Departamento de Defesa. Caso a Anthropic não concorde, o Pentágono ameaça classificá-la como risco à cadeia de suprimentos, medida que a excluiria de contratos governamentais, ou acionar a Lei de Produção de Defesa (DPA), instrumento que permite ao presidente ordenar a entrega de bens ou serviços considerados imprescindíveis à segurança nacional.

Em declaração divulgada na quinta-feira, 26, o diretor-executivo da Anthropic, Dario Amodei, afirmou que a empresa não permitirá o uso de seus modelos em todos os cenários legítimos sem restrições. Ele registrou que a companhia não abrirá mão das salvaguardas que proíbem a utilização do Claude em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa e acrescentou que as ameaças não alteram o posicionamento da organização.

Amodei disse que a Anthropic prefere continuar atendendo o Departamento de Defesa com suas medidas de segurança vigentes e, caso seja retirada dos contratos, pretende colaborar em uma transição que evite impactos em operações militares ou em missões críticas.

O Pentágono sustenta que não pretende empregar o Claude em armamentos totalmente autônomos nem em vigilância em massa de cidadãos norte-americanos, prática que, segundo o porta-voz Sean Parnell, é ilegal. Mesmo assim, a pasta insiste na inclusão de cláusula que assegure o uso da tecnologia para todos os fins considerados legais, argumentando que nenhuma empresa deve definir os parâmetros das decisões operacionais.

Autoridades informaram à imprensa que a proposta final do Departamento foi enviada à Anthropic na noite de quarta-feira, 25, estabelecendo o limite de 15h01 (horário local) de sexta-feira, 27, para a resposta da companhia.

Reportagem do The Wall Street Journal indicou que o Claude foi empregado por forças dos Estados Unidos na operação realizada na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o episódio, e não há detalhes sobre o papel do sistema na ação.

A inclusão da empresa na lista de riscos à cadeia de suprimentos pode acarretar restrições amplas de importação, impedimentos em licitações e exclusão de setores estratégicos. Já a aplicação da DPA permitiria impor a entrega da tecnologia ao Pentágono, prevendo multas, sanções criminais, apreensão de bens ou intervenção federal, embora assegure proteção antitruste e prioridade no acesso a suprimentos para companhias enquadradas.

Segundo fontes do governo, o Departamento de Defesa já procura grandes contratadas, como Boeing e Lockheed Martin, para avaliar a dependência dos produtos da Anthropic, sinalizando possível preparação para rompimento.

Em julho de 2025, a Anthropic, o Google, a OpenAI e a xAI receberam contrato de US$ 200 milhões para desenvolver capacidades avançadas de IA a serviço da segurança nacional. A startup foi a primeira a integrar seus modelos em redes classificadas, em parceria com empresas como a Palantir.

Analistas observam que concorrentes, entre eles Meta, Google e xAI, aceitaram liberar seus sistemas para todos os usos legais do Departamento, o que, na avaliação desses especialistas, reduz a margem de negociação da Anthropic.

Criada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como voltada à segurança. Amodei escreveu recentemente que a empresa nasceu para garantir que a IA represente avanço para a humanidade e defendeu gestão pragmática dos riscos à medida que a tecnologia evolui.

Especialistas ouvidos por veículos norte-americanos consideram inédita a perspectiva de aplicar a DPA a uma companhia de IA. Geoffrey Gertz, do Center for a New American Security, teme impacto negativo no desenvolvimento da Anthropic, enquanto Amos Toh, do Brennan Center da Universidade de Nova York, aponta a necessidade de maior supervisão legislativa sobre a rápida adoção de IA pelo Pentágono.

Com a aproximação do prazo fixado pelo Departamento de Defesa, a Anthropic mantém a posição de não abrir mão das salvaguardas que julga essenciais para o uso responsável de seu sistema.

Com informações de Olhar Digital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *