O impasse da IA da Anthropic com o Pentágono: um choque de ética e poder

0

A Anthropic, uma das empresas de tecnologia que mais cresce atualmente, encontra-se numa disputa de alto risco com o Pentágono sobre as suas restrições de segurança de IA. O conflito centra-se em saber se a empresa permitirá que os seus modelos avançados, incluindo os recém-lançados Claude Opus 4.6 e Sonnet 4.6, sejam utilizados para fins militares sem comprometer as suas linhas éticas declaradas. O Pentágono sinalizou que pode designar a Anthropic como um “risco da cadeia de abastecimento” – uma designação normalmente reservada a adversários estrangeiros – se a empresa não ceder.

A ascensão do antrópico e sua IA avançada

A Anthropic, fundada por ex-executivos da OpenAI em 2021, rapidamente atingiu uma avaliação de US$ 380 bilhões após fechar uma rodada de financiamento de US$ 30 bilhões. Os modelos mais recentes da empresa, Opus 4.6 e Sonnet 4.6, representam saltos significativos nas capacidades de IA. O Opus 4.6 agora pode coordenar equipes de agentes autônomos, permitindo que múltiplas IAs trabalhem em paralelo. O Sonnet 4.6 quase se iguala às habilidades de codificação e informática do Opus, embora seja mais barato, e ambos os modelos possuem memórias de trabalho capazes de armazenar uma grande quantidade de dados.

Os clientes corporativos agora representam 80% da receita da Anthropic. Os modelos podem navegar em aplicativos da web, preencher formulários e processar tarefas complexas com o mínimo de supervisão humana. São essas características que tornam Claude tão atraente para os militares, mas também a fonte do conflito.

O ponto de ruptura: ataque à Venezuela e pressão do Pentágono

As tensões aumentaram depois que as forças de operações especiais dos EUA capturaram Nicolás Maduro na Venezuela, em janeiro. Os relatórios indicam que as forças usaram Claude através da parceria da Anthropic com Palantir durante a operação. Quando um executivo da Antrópico questionou Palantir sobre esse uso, alarmes foram disparados no Pentágono.

O secretário de Defesa, Pete Hegseth, está considerando romper os laços com a Anthropic, com um alto funcionário do governo afirmando: “Vamos garantir que eles paguem um preço por nos forçarem desta forma”. O Pentágono exige acesso irrestrito à IA para “todos os fins legais”, enquanto a Anthropic traçou linhas vermelhas contra a vigilância em massa dos americanos e armas totalmente autónomas.

O Dilema Central: Segurança vs. Aplicação Militar

O impasse levanta questões fundamentais sobre se uma empresa de IA comprometida com a segurança pode operar num contexto militar. É possível manter limites éticos quando as ferramentas mais poderosas são integradas em redes classificadas? Outros grandes laboratórios de IA – OpenAI, Google e xAI – relaxaram as salvaguardas para sistemas não classificados do Pentágono, mas o Antrópico continua a ser o primeiro grande modelo de linguagem a operar dentro de redes classificadas.

A questão central é se a “segurança em primeiro lugar” é uma identidade sustentável, uma vez incorporada a tecnologia nas operações militares. O debate não envolve apenas capacidades técnicas, mas também áreas cinzentas jurídicas e filosóficas.

Áreas Cinzentas em Vigilância e Armas Autônomas

As restrições da Antrópica à vigilância em massa são desafiadas pela natureza evolutiva da análise de dados baseada em IA. Os quadros jurídicos concebidos para a revisão humana lutam para acompanhar o ritmo da análise à escala da máquina. A linha entre a recolha de dados permitida e a vigilância em massa torna-se ténue quando os sistemas de IA conseguem mapear redes, detectar padrões e sinalizar pessoas de interesse.

Como observou um funcionário, o Pentágono argumenta que existe uma “área cinzenta considerável” em torno das restrições da Antrópica. Os especialistas discordam. Peter Asaro, co-fundador do Comité Internacional para o Controlo de Armas Robóticas, sugere que esta “área cinzenta” poderia ser simplesmente um pretexto para usar a IA para vigilância e armas autónomas.

A definição de armas autónomas também é restrita: sistemas que selecionam e atacam alvos sem supervisão humana. No entanto, a seleção de alvos assistida por IA, como os sistemas Lavender e Gospel dos militares israelitas, já automatiza elementos-chave do processo de seleção de alvos.

A compensação inevitável?

Quanto mais capazes se tornam os modelos da Antrópicos, mais tênue é a linha entre o trabalho analítico aceitável e a vigilância ou seleção de alvos proibidos. As equipes de agentes autônomos do Opus 4.6 podem dividir tarefas complexas, transformando a inteligência militar. A capacidade de navegar em aplicativos, preencher formulários e processar dados com o mínimo de supervisão torna Claude inestimável em redes confidenciais.

À medida que a Anthropic avança a fronteira da IA ​​autónoma, a procura militar por essas ferramentas só aumentará. Emelia Probasco, do Centro de Segurança e Tecnologia Emergente de Georgetown, sugere que existe um falso binário entre segurança e segurança nacional, perguntando: “Que tal termos segurança e segurança nacional?”

O impasse com o Pentágono testa o compromisso da Anthropic com a segurança e força um acerto de contas sobre se os limites éticos podem realmente se manter quando a IA é integrada nas operações militares mais poderosas e secretas.

попередня статтяSonda do Observatório Solar Europeu perde orientação, status da missão incerto
наступна статтяEsta semana no espaço comemora 200 episódios com especial para ouvinte