WhatsApp
Voltar para Notícias
07/03/2026

EUA classificam Anthropic como um risco após empresa não aceitar uso militar irrestrito de sua IA

Entenda embate entre governo dos EUA e Claude, rival do ChatGPT O Departamento de Guerra dos Estados Unidos informou à empresa de inteligência artificial Anthropic de que ela foi classificada como um risco à cadeia de fornecimento, disse um oficial do órgão nesta quinta-feira (5). A medida tem efei…

EUA classificam Anthropic como um risco após empresa não aceitar uso militar irrestrito de sua IA
<p><strong>Fonte:</strong> <a href="https://g1.globo.com/tecnologia/noticia/2026/03/05/anthropic-retoma-conversa-com-os-eua-sobre-uso-militar-de-sua-ia-diz-jornal.ghtml" target="_blank" rel="noopener nofollow">https://g1.globo.com/tecnologia/noticia/2026/03/05/anthropic-retoma-conversa-com-os-eua-sobre-uso-militar-de-sua-ia-diz-jornal.ghtml</a></p>

Entenda embate entre governo dos EUA e Claude, rival do ChatGPT<br />
O Departamento de Guerra dos Estados Unidos informou à empresa de inteligência artificial Anthropic de que ela foi classificada como um risco à cadeia de fornecimento, disse um oficial do órgão nesta quinta-feira (5). A medida tem efeito imediato, segundo ele.<br />
A Anthropic, criadora do Claude, tinha retomado a conversa com o governo americano sobre o uso militar de suas ferramentas, conforme revelou nesta quinta-feira (5) o jornal Financial Times.<br />
A empresa pretendia resolver o impasse que surgiu na última semana sobre como seus modelos de IA poderiam ser usados pelas Forças Armadas dos EUA.<br />
O objetivo da Anthropic era impedir que a sua ferramenta fosse usada para vigilância em massa de cidadãos e sistemas de armamento autônomos, por exemplo. Mas o governo americano buscava liberação para eles serem usados para qualquer finalidade &quot;lícita&quot;.<br />
Sem um acordo, o presidente americano Donald Trump determinou na sexta-feira (27) que agências federais do país interrompessem o uso de programas de IA da Anthropic.<br />
O secretário de Guerra de Trump, Pete Hegseth, já tinha ameaçado classificar a empresa como um risco na semana passada. Com a decisão oficializada, empresas do ramo militar nos EUA deverão cortar laços com a companhia.<br />
Mesmo com a ordem contrária, os EUA usaram o Claude na ofensiva militar contra o Irã, segundo o The Wall Street Journal. O assistente costuma ajudar o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha.<br />
Dario Amodei, diretor-executivo da Anthropic, e Donald Trump, presidente dos EUA<br />
Reuters/Bhawika Chhabra; Reuters/Nathan Howard<br />
O acordo permitiria a militares americanos voltar a usar livremente modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco.<br />
Ele também poderia afetar os planos da rival OpenAI, dona do ChatGPT, que anunciou na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono.<br />
Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google.<br />
LEIA TAMBÉM:<br />
Irã tem novo apagão de internet em meio a conflito com EUA e Israel<br />
&#039;Não dá pra viver sem VPN&#039;: como brasileiros na Rússia driblam restrições às redes sociais<br />
&#039;Crise da memória&#039; deve fazer venda de celulares ter maior queda da história em 2026