Ícone do site Primeira Capa

Trump pressiona empresa a liberar IA para uso do Exército

Ultimato do Governo Trump à Anthropic sobre Tecnologia de Inteligência Artificial

O governo Trump propôs um ultimato à empresa Anthropic, exigindo a liberação de sua tecnologia de Inteligência Artificial (IA) para uso irrestrito pelo Exército dos Estados Unidos. O secretário de Defesa, Pete Hegseth, estabeleceu um prazo até esta sexta-feira (27) e alertou sobre possíveis consequências, como a rescisão de contratos da empresa com o governo americano e sua classificação como um "risco à cadeia de suprimentos".

Pressão do Governo

A Anthropic, responsável pela ferramenta de IA Claude, tem sido a última empresa a resistir à pressão do governo para fornecer sua tecnologia a uma nova rede interna militar. O Claude já foi utilizado em operações que resultaram na queda do ditador venezuelano Nicolás Maduro, conforme informado pelo "The Wall Street Journal". A empresa, no entanto, proíbe o uso de sua IA para finalidade violenta e expressou preocupações éticas sobre a aplicação militar desse tipo de tecnologia.

Preocupações Éticas

O CEO da Anthropic, Dario Amodei, reiterou suas reservas sobre o uso governamental da IA, destacando os riscos de operações autônomas e vigilância em massa. Ele escreveu que "uma IA poderosa poderia medir o sentimento público e eliminar focos de deslealdade antes que crescessem". Esse posicionamento ético tem gerado tensão entre a empresa e o Pentágono, que busca ferramentas sem limitações que possam ser aplicadas sem restrições ideológicas.

Possíveis Consequências Legais

Caso a Anthropic não atenda ao ultimato, Hegseth afirmou que poderia recorrer à Lei de Produção de Defesa (DPA) para garantir o acesso dos militares à tecnologia. Essa ação poderia classificar a empresa como um risco à segurança nacional, resultando em restrições severas e proibição de participar de licitações públicas.

Além de sanções, a DPA permitiria ao governo intervir na economia para priorizar a defesa nacional, obrigando empresas a atenderem ordens sob pena de multas e sanções criminais. Essa posição ressalta a influência crescente da IA no contexto de segurança nacional e os debates sobre seu uso em situações críticas.

Impasse Contínuo

O encontro entre Hegseth e Amodei no Pentágono acabou sendo cordial, mas o CEO manteve suas posições em relação a operações autônomas e a vigilância sobre cidadãos americanos. O Pentágono argumenta que suas ordens são legais e que a responsabilidade do uso das ferramentas recai sobre os militares.

A Anthropic, que foi pioneira ao se tornar a primeira empresa aprovada para redes militares classificadas, pode agora perder sua posição única, já que outras grandes empresas, como Google e OpenAI, aceitaram as políticas do Pentágono, flexibilizando o uso de suas tecnologias.

Contexto e Repercussões

Desde sua fundação, a Anthropic busca se apresentar como uma empresa focada em segurança. No entanto, as tensões com o governo Trump e suas normas éticas mais rigorosas têm gerado conflitos recorrentes. A pressão por regulamentações mais flexíveis, especialmente sobre a venda de chips de IA para países como a China, destaca a complexidade do cenário atual.

Amadei criticou a velocidade com que a tecnologia de IA está sendo adotada, enfatizando a necessidade de supervisão legislativa. O cenário levanta questões sobre o que constitui uma vigilância adequada e os limites éticos que devem ser respeitados na aplicação de IA em contextos militares e governamentais.

Com informações de: Associated Press

Sair da versão mobile