Ekhbary
Sunday, 22 February 2026
Breaking

IA 'Segurança Primeiro' da Anthropic Colide com o Pentágono com a Expansão de Agentes Autônomos

A empresa de IA enfrenta uma encruzilhada ética à medida que

IA 'Segurança Primeiro' da Anthropic Colide com o Pentágono com a Expansão de Agentes Autônomos
7DAYES
3 hours ago
2

Estados Unidos - Agência de Notícias Ekhbary

IA 'Segurança Primeiro' da Anthropic Colide com o Pentágono com a Expansão de Agentes Autônomos

A Anthropic, uma empresa líder em inteligência artificial fundada no princípio de 'segurança primeiro' (safety first), encontra-se em uma conjuntura crítica em seu relacionamento com o Departamento de Defesa dos Estados Unidos (o Pentágono). Com o recente lançamento de seus agentes autônomos mais sofisticados, a demanda militar por essas capacidades avançadas está se intensificando, apresentando um profundo desafio aos compromissos éticos fundamentais da empresa e à sua estratégia de expansão global.

Em 5 de fevereiro, a Anthropic revelou o Claude Opus 4.6, seu modelo de IA mais poderoso até hoje. Uma característica chave desta versão é sua capacidade de coordenar equipes de agentes autônomos — múltiplas IA que podem dividir tarefas e trabalhar em paralelo para atingir objetivos complexos. Apenas doze dias após o lançamento do Opus 4.6, a empresa introduziu o Sonnet 4.6, um modelo mais econômico, mas que rivaliza com o Opus em habilidades de codificação e informática. Enquanto os primeiros modelos de controle de computador da Anthropic, introduzidos no final de 2024, mal conseguiam operar um navegador web, o Sonnet 4.6 agora demonstra capacidade de nível humano para navegar em aplicativos web e preencher formulários, de acordo com a empresa. Ambos os modelos possuem uma memória de trabalho suficientemente ampla para armazenar uma pequena biblioteca, permitindo operações mais complexas e sustentadas.

O setor corporativo representa atualmente cerca de 80% da receita da Anthropic, e a empresa concluiu recentemente uma rodada de financiamento de US$ 30 bilhões, alcançando uma impressionante avaliação de US$ 380 bilhões. Por todas as métricas disponíveis, a Anthropic se destaca como uma das empresas de tecnologia de crescimento mais rápido da história. No entanto, por trás dos grandes lançamentos de produtos e avaliações impressionantes, reside uma ameaça significativa: o Pentágono indicou que pode designar a Anthropic como um "risco na cadeia de suprimentos" — um rótulo tipicamente reservado para adversários estrangeiros — a menos que a empresa relaxe suas restrições ao uso militar. Tal designação poderia efetivamente forçar os contratados do Pentágono a remover o Claude de projetos sensíveis, potencialmente dificultando sua adoção em aplicações críticas de defesa.

As tensões aumentaram após uma operação em 3 de janeiro, na qual forças de operações especiais dos EUA realizaram uma incursão na Venezuela, resultando na captura de Nicolás Maduro. Relatórios do Wall Street Journal sugerem que o Claude foi utilizado durante esta operação através da parceria da Anthropic com a contratada de defesa Palantir. A Axios relatou ainda que este incidente exacerbou negociações já tensas sobre os usos precisos permitidos do Claude. Quando um executivo da Anthropic entrou em contato com a Palantir para perguntar se a tecnologia havia participado da incursão, a pergunta supostamente desencadeou alarmes imediatos dentro do Pentágono. Embora a Anthropic tenha contestado que tal comunicação visava expressar desaprovação da operação específica, um alto funcionário da administração disse à Axios que o Secretário de Defesa Pete Hegseth está "próximo" de romper laços, acrescentando: "Vamos garantir que eles paguem um preço por nos forçar a agir desta maneira".

Esta colisão destaca uma questão fundamental: uma empresa fundada com a missão de prevenir um desastre de IA pode manter sua integridade ética quando suas ferramentas mais poderosas — agentes autônomos capazes de processar vastos conjuntos de dados, identificar padrões e agir com base em suas conclusões — começam a operar dentro de redes militares classificadas? Uma IA 'segurança primeiro' é verdadeiramente compatível com um cliente que exige sistemas capazes de raciocinar, planejar e agir autonomamente em escala militar?

A Anthropic estabeleceu duas linhas vermelhas explícitas: proibir a vigilância em massa de americanos e proibir armas totalmente autônomas. O CEO Dario Amodei afirmou que a Anthropic apoiará "a defesa nacional em todos os sentidos, exceto aqueles que nos tornariam semelhantes aos nossos adversários autocráticos". Enquanto outros grandes laboratórios de IA, incluindo OpenAI, Google e xAI, concordaram em relaxar as salvaguardas para uso nos sistemas não classificados do Pentágono, suas ferramentas ainda não foram implantadas nas redes classificadas do exército. O Pentágono, em contraste, insiste que as capacidades de IA devem estar disponíveis para "todos os fins legais".

Essa fricção testa diretamente a tese central da Anthropic. A empresa foi fundada em 2021 por ex-executivos da OpenAI que sentiam que a indústria não estava priorizando a segurança adequadamente. Eles posicionaram Claude como a alternativa eticamente responsável. No final de 2024, a Anthropic tornou o Claude acessível em uma plataforma Palantir com um nível de segurança de nuvem de até "secreto", tornando o Claude, de acordo com relatos públicos, o primeiro modelo de linguagem grande a operar dentro de sistemas classificados.

O atual impasse força um exame crítico se uma identidade 'segurança primeiro' é sustentável depois que uma tecnologia é integrada em operações militares classificadas e se tais linhas vermelhas são praticamente aplicáveis. Emelia Probasco, pesquisadora sênior no Centro de Segurança e Tecnologia Emergente de Georgetown, observa: "Essas palavras parecem simples: vigilância ilegal de americanos. Mas quando você se aprofunda, existem exércitos inteiros de advogados tentando interpretar essa frase".

O contexto histórico também é relevante. Após as revelações de Edward Snowden, o governo dos EUA defendeu a coleta em massa de metadados telefônicos — registros de chamadas detalhando quem ligou para quem, quando e por quanto tempo — argumentando que esses dados não carregavam as mesmas proteções de privacidade que o conteúdo das conversas. O debate sobre a privacidade então se concentrou em analistas humanos que examinavam esses registros. Agora, imagine um sistema de IA consultando vastos conjuntos de dados, mapeando redes, identificando padrões e sinalizando pessoas de interesse. O quadro legal existente foi projetado para uma era de revisão humana, não para análise em escala de máquina.

"Em certo sentido, qualquer tipo de coleta de dados em massa que você peça a uma IA para examinar é vigilância em massa por definição", afirma Peter Asaro, cofundador do Comitê Internacional para o Controle de Armas Robóticas. A Axios relatou que um alto funcionário argumentou que existe uma "área cinzenta considerável" em torno das restrições da Anthropic e que é "irrealista para o Pentágono ter que negociar casos de uso individuais" com a empresa. Asaro oferece duas interpretações dessa queixa: uma interpretação generosa que sugere que a definição de vigilância é genuinamente impossível na era da IA, e uma interpretação pessimista de que "eles realmente querem usá-las para vigilância em massa e armas autônomas e não querem dizer isso, então eles chamam de área cinzenta".

Em relação à segunda linha vermelha da Anthropic, armas autônomas — definidas estritamente como sistemas que selecionam e engajam alvos sem supervisão humana — a definição pode parecer gerenciável. No entanto, Asaro percebe uma área cinzenta mais preocupante. Ele aponta para os sistemas israelenses "Lavender" e "Gospel", que supostamente usam IA para gerar listas massivas de alvos que são apresentadas a operadores humanos para aprovação antes que os ataques sejam realizados. "Você automatizou, essencialmente, o elemento de direcionamento, que é algo com que estamos muito preocupados e está intimamente relacionado, mesmo que esteja fora da definição estrita", explica Asaro. A questão crucial é se o Claude, operando dentro dos sistemas da Palantir em redes classificadas, poderia estar realizando funções semelhantes — processando inteligência, identificando padrões e sinalizando pessoas de interesse — sem que a Anthropic possa delimitar precisamente onde o trabalho analítico termina e onde o direcionamento começa.

A operação de Maduro serve como um teste crítico para essa distinção. "Se você está coletando dados e inteligência para identificar alvos, mas os humanos estão decidindo: 'Ok, esta é a lista de alvos que realmente vamos bombardear' — então você tem esse nível de supervisão humana que estamos tentando exigir", diz Asaro. "Por outro lado, você ainda se torna dependente do sistema para a tomada de decisões." Isso levanta preocupações sobre o potencial de os sistemas se tornarem квази-autônomos, mesmo com um humano no circuito. O desafio da Anthropic reside em garantir que suas linhas vermelhas permaneçam claras e aplicáveis à medida que sua tecnologia é integrada em ambientes militares complexos e de alto risco, onde velocidade e precisão são primordiais, e as linhas entre análise de inteligência e direcionamento estão em constante evolução.

Palavras-chave: # Anthropic # Claude # AI # Pentagon # agentes autônomos # segurança IA # IA militar # ética IA # Palantir # regulamentação IA # política IA