A Anthropic foi banida do Pentágono. E o Mythos complicou tudo

H
Hugo EmmanoellEngenheiro de Software
6 min de leitura

Em fevereiro de 2026, o Departamento de Defesa dos Estados Unidos fez algo sem precedentes: declarou uma empresa americana de tecnologia um "risco à cadeia de suprimento", a mesma designação historicamente reservada para empresas associadas a adversários estrangeiros como China e Rússia. A empresa em questão é a Anthropic, criadora do Claude.

Isso não foi um vazamento, uma suspeita ou uma investigação silenciosa. Foi uma declaração pública que forçou todos os contratantes do Pentágono a certificar que não utilizam os modelos da Anthropic em seus trabalhos com o governo. A Anthropic processou a administração Trump em resposta. E então o Mythos entrou em cena, e tudo ficou mais complicado.

Como chegamos até aqui

O conflito entre a Anthropic e o Pentágono tem uma origem específica: uma disputa sobre os termos de uso dos modelos Claude dentro do governo.

O Departamento de Defesa exigiu que a Anthropic disponibilizasse seus modelos para "todos os fins legais", uma cláusula que as outras sete empresas que fecharam contratos com o Pentágono, incluindo OpenAI, Google, Microsoft, Nvidia, Amazon Web Services, SpaceX e a startup Reflection AI, aceitaram. A Anthropic recusou. A empresa insistiu em vetar dois casos de uso específicos: vigilância doméstica em massa e desenvolvimento de armas autônomas letais.

A diferença de posição é filosoficamente significativa. A Anthropic está, em essência, dizendo que existem aplicações militares para as quais seus modelos não estão disponíveis, independentemente de quem está pedindo. O Pentágono interpretou isso como uma restrição inaceitável à soberania operacional. O resultado foi a designação de risco à cadeia de suprimento, a primeira vez que uma empresa americana recebeu esse rótulo.

A OpenAI anunciou seu acordo com o Pentágono horas depois que o Secretário de Defesa Pete Hegseth declarou a Anthropic um risco de segurança. O CEO Sam Altman admitiu posteriormente que o timing "pareceu oportunista e descuidado" em um post no X. A ironia não passou despercebida.

O Mythos mudou o cálculo

Em abril de 2026, a Anthropic apresentou o Mythos, descrito como seu modelo mais poderoso. O que distingue o Mythos de outros modelos de fronteira é uma capacidade específica: identificar vulnerabilidades em software e sistemas, incluindo os muito bem protegidos.

Essa capacidade tem dois lados. Para defesa, é extraordinariamente valiosa: um modelo que consegue encontrar e ajudar a corrigir vulnerabilidades antes que atacantes as explorem representa uma ferramenta de segurança sem precedentes. Para ataque, representa exatamente o oposto.

O CTO do Departamento de Defesa, Emil Michael, foi direto ao ponto em entrevista à CNBC na última sexta-feira: "O problema do Mythos que está sendo tratado em todo o governo, não apenas no Departamento de Guerra, é um momento separado de segurança nacional, onde precisamos garantir que nossas redes estejam protegidas, porque esse modelo tem capacidades particulares para encontrar vulnerabilidades cibernéticas e corrigi-las."

Traduzindo: o Mythos é poderoso o suficiente para ser tratado como uma questão de segurança nacional por si só, independente da disputa contratual com a Anthropic.

A contradição que o governo criou

O que emergiu nas últimas semanas é uma contradição que os tribunais e os órgãos de governo americanos ainda estão processando.

O Pentágono declarou a Anthropic um risco de segurança. O Pentágono está argumentando nos tribunais que usar os modelos da Anthropic ameaça a segurança nacional dos EUA. E, ao mesmo tempo, a NSA, que é supervisionada pelo Departamento de Defesa, está usando o Mythos, segundo fontes reportadas pelo Axios. Outras organizações com acesso ao modelo de preview o estão usando predominantemente para escanear seus próprios ambientes em busca de vulnerabilidades exploráveis.

Michael reconheceu a situação sem resolver a contradição: disse que o uso do Mythos por agências federais se enquadra como "análise de modelo", não como uso operacional, o que seria tratado como "negócios normais". É uma distinção que os advogados da Anthropic certamente irão questionar nos processos em andamento.

Um juiz federal na Califórnia já bloqueou o esforço do Pentágono de forçar a remoção dos modelos da Anthropic de redes classificadas. O governo tem seis meses para fazer a transição, mas com múltiplos órgãos usando o Mythos ativamente, o prazo prático é incerto.

O presidente Trump, em declaração à CNBC, disse que "é possível" que haja um acordo entre a Anthropic e o Pentágono. Disse que a empresa é "muito inteligente" e "pode ser de grande utilidade". Dario Amodei, CEO da Anthropic, se reuniu com a Chefe de Gabinete da Casa Branca Susie Wiles e com o Secretário do Tesouro Scott Bessent para discutir o uso do Mythos dentro do governo, em uma reunião que ambos os lados descreveram como "produtiva".

O que o Pentágono está fazendo enquanto isso

Sem a Anthropic, o Pentágono acelerou dramaticamente o processo de incorporar novos fornecedores de IA. O que antes levava 18 meses agora acontece em menos de três meses.

Entre os oito novos parceiros está a Reflection AI, uma startup de dois anos que ainda não lançou nenhum modelo disponível ao público. A empresa levantou US$ 2 bilhões em outubro de 2025, tem a Nvidia como investidora, e é apoiada pela 1789 Capital, um fundo de venture onde Donald Trump Jr. é sócio. A Reflection está buscando uma avaliação de US$ 25 bilhões. Sua inclusão entre os parceiros de IA classificados do Pentágono gerou questionamentos sobre os critérios de seleção.

A plataforma de IA do Pentágono, a GenAI.mil, já foi usada por mais de 1,3 milhão de funcionários do Departamento de Defesa em apenas cinco meses de operação, segundo dados citados pelo próprio governo como evidência de quão profundamente a IA se integrou às operações militares do dia a dia.

O CTO Emil Michael deixou claro que o Pentágono não quer depender de um único fornecedor: "É irresponsável depender de um único parceiro para os requisitos de IA do Pentágono", disse, em referência direta à experiência com a Anthropic.

O que está em jogo

O caso Anthropic vs. Pentágono é um episódio de uma questão maior que a indústria de IA terá que enfrentar de forma crescente: onde estão os limites do que uma empresa de tecnologia pode recusar fornecer a um governo, e quais são as consequências de traçar esse limite?

A Anthropic está, neste momento, do lado mais caro desse limite. A empresa está excluída de contratos substanciais que seus concorrentes têm acesso. Está processando o governo federal dos EUA. E está assistindo enquanto outros órgãos do mesmo governo que a baniu usam seu modelo mais avançado para fins de segurança nacional.

Do ponto de vista técnico, o que o Mythos representa é também uma questão nova. O CTO do Pentágono disse que o governo está buscando entender como trabalhar com todas essas empresas "para que suas capacidades sejam compreendidas por nós primeiro, para que possamos corrigir quaisquer problemas que tenhamos nos setores privado e público". É o reconhecimento implícito de que modelos de IA chegaram a um limiar de capacidade em segurança cibernética que cria obrigações de governança que ninguém havia previsto com clareza.

Para o restante da indústria de tecnologia global, o caso é um aviso sobre a velocidade com que a IA migrou de ferramenta de produtividade para questão de segurança nacional. A próxima empresa a lançar um modelo com capacidades similares ao Mythos vai enfrentar as mesmas perguntas, com o precedente que a Anthropic está ajudando a estabelecer nos tribunais e nas negociações com a Casa Branca.

Pronto para começar? Fale com a Bia IA para tirar suas dúvidas ou converse com um especialista.