Democratas do Senado querem codificar limites da Anthropic sobre armas autônomas e vigilância
Projeto liderado por Adam Schiff e proposta de Elissa Slotkin miram transformar em lei os limites da Anthropic para IA militar, com humano na decisão letal e barreiras claras a vigilância em massa.
Danilo Gato
Autor
Introdução
Democratas do Senado dos EUA se movem para codificar em lei os limites da Anthropic em armas autônomas e vigilância em massa, após semanas de embates públicos entre a empresa e o Pentágono. A iniciativa surge no rastro da designação do governo como “risco de cadeia de suprimentos” e de um processo aberto pela Anthropic, além de uma proposta já apresentada pela senadora Elissa Slotkin chamada AI Guardrails Act.
O tema importa porque coloca a política de IA de defesa em uma encruzilhada. De um lado, pressões para acelerar a adoção militar de IA. Do outro, a defesa dos chamados limites da Anthropic em armas autônomas e vigilância doméstica, um conjunto mínimo de salvaguardas que prioriza humano na decisão letal e proteção de direitos civis.
Este artigo aprofunda o que está em jogo, como os projetos funcionam e quais implicações práticas surgem para empresas de IA, fornecedores do governo e equipes de segurança nacional.
O que são os “limites da Anthropic” e por que importam
Os limites da Anthropic se resumem a dois pilares. Primeiro, rejeitar o uso de IA para armas totalmente autônomas, ou seja, sistemas que selecionam e engajam alvos sem supervisão humana significativa. Segundo, impedir o uso para vigilância em massa de pessoas nos Estados Unidos. Esses pontos foram explicitados em reportagens recentes e em documentos públicos que tratam dos riscos de sistemas letais autônomos.
Há fundamento técnico e jurídico para esses limites. Organizações como a Human Rights Watch apontam que armas autônomas tendem a falhar na distinção entre civis e combatentes, especialmente em contextos dinâmicos como áreas urbanas e protestos. Do lado normativo, o Departamento de Defesa possui a Diretriz 3000.09, que exige “controle humano significativo” no emprego de força letal, algo que os democratas querem consolidar estatutariamente.
Do ponto de vista de produto, limites desse tipo afetam design de modelos, fine-tuning, logs de auditoria e os termos de uso impostos a integradores. O recado para equipes de IA é claro, preparar trilhas de conformidade e mecanismos técnicos que reforcem humano no loop, além de bloqueios de uso para detecção de padrões de vigilância massiva.
![Cúpula do Capitólio dos EUA]
Linha do tempo recente, de fevereiro a março de 2026
A disputa escalou no fim de fevereiro de 2026. Em 27 de fevereiro, o Pentágono sinalizou a decisão de rotular a Anthropic como “risco de cadeia de suprimentos”, medida que força contratados federais a abandonar seus produtos. Horas depois, a OpenAI anunciou acordo para ocupar o espaço nos ambientes militares, aprofundando o contraste entre abordagens.
Em 5 de março, a designação como risco foi oficializada, o que levou a Anthropic a processar o governo em 9 de março, argumentando punição por manter limites éticos de uso. A imprensa registrou a sequência, com cobertura detalhando a narrativa de “retaliação” e a resposta do DoD, que negou querer armas autônomas fora da legalidade e enquadrou a empresa como risco mais amplo.
Em 24 de março, uma audiência judicial em San Francisco indicou ceticismo da juíza em relação aos motivos do governo para a rotulagem da Anthropic, reforçando a natureza extraordinária do caso. A discussão jurídica agora interage com a arena política, onde democratas veem chance de transformar limites corporativos em regras federais.
O que os democratas estão propondo
Segundo The Verge, o senador Adam Schiff trabalha para “codificar” os limites da Anthropic em lei, garantindo humano na decisão de vida e morte e desautorizando a aplicação de IA para vigilância doméstica em massa. A estratégia legislativa cogita usar o NDAA como veículo, reconhecendo a janela política estreita antes do calendário eleitoral.
Em paralelo, a senadora Elissa Slotkin apresentou o AI Guardrails Act em 17 de março de 2026. O texto proíbe o DoD de, um, usar IA para lançar ou detonar armas nucleares, dois, utilizar IA para monitorar, rastrear, perfilar ou mirar indivíduos ou grupos dentro dos EUA sem base legal articulável, três, empregar força letal por sistemas autônomos sem níveis apropriados de julgamento e supervisão humanos, remetendo também à Diretriz 3000.09. Prevê ainda um mecanismo de exceção para circunstâncias extraordinárias, com certificações formais ao Congresso e critérios de desempenho comparados a operadores humanos.
Essa combinação de iniciativas reflete um desenho de “human-in-the-loop” obrigatório, com salvaguardas operacionais e transparência ao Legislativo, o que atende parte das preocupações de segurança, responsabilidade e direitos civis.
![Logo da Anthropic]
Implicações para o ecossistema de IA, do fornecedor ao integrador
A curto prazo, fornecedores que operam com o governo terão de mapear capacidades de seus modelos frente às proibições e aos cenários de uso cobertos pelo AI Guardrails Act. Isso inclui bloqueios de funcionalidades, filtros de prompting e tuning para desencorajar usos proibidos, além de camadas de verificação que documentem humano no loop em cada decisão que envolva risco letal.
Para integradores, a tendência é exigir evidências auditáveis, como, um, trilhas de aprovação humana antes de ação letal, dois, limites explícitos de coleta e correlação de dados em território americano, três, políticas de detecção e bloqueio de padrões de vigilância em massa. Empresas que já adotam “model cards” e “system cards” terão vantagem ao traduzir requisitos legais em controles técnicos verificáveis.
Do lado do DoD, a adoção de IA para tip and cue, ou seja, indicar e priorizar informações a operadores humanos, permanece alinhada com o discurso de Schiff sobre ganhos de velocidade e consciência situacional, sem delegar a decisão letal ao algoritmo. O equilíbrio técnico vai recair no design de interfaces e de fluxos de aprovação, onde o humano precisa ter agência real, não meramente simbólica.
Política, calendário e a aposta no NDAA
Com minoria democrata nas duas casas, a chance de sucesso imediato depende de disposição republicana em criticar a administração sobre o caso Anthropic. Mesmo assim, há sinais de debates bipartidários em torno de armas autônomas e supervisão sobre IA em defesa, e democratas avaliam que o NDAA é o canal mais realista para avançar salvaguardas neste ano.
O cálculo político considera ainda a percepção pública. Pesquisas qualitativas e manifestações de organizações civis sugerem apoio a limites mínimos, como humano na decisão letal e rejeição a vigilância doméstica em massa, pontos também ecoados por senadores que pediram contenção ao DoD quando a crise com a Anthropic estourou.
Riscos operacionais e como mitigá-los na prática
- Definições e escopo. O que é “arma autônoma” para efeitos legais pode exigir glossário robusto, com critérios de autonomia, engajamento e sensores. A referência à 3000.09 como baseline técnico ajuda a reduzir ambiguidade.
- Exceções por circunstâncias extraordinárias. O projeto Slotkin permite waiver sob certificação do Secretário de Defesa, com notificações ao Congresso e comparação de erro com operadores humanos. A governança precisa de métricas e testes padronizados para evitar banalização do waiver.
- Compatibilidade com desenvolvimento ágil. Times de IA terão de integrar testes de robustez, documentação e validação de humano no loop no próprio ciclo de MLOps, sem travar a cadência de releases. Frameworks internos podem incluir gates de conformidade e revisões independentes antes de cada atualização.
O que as decisões judiciais podem sinalizar
O escrutínio de 24 de março, quando uma juíza questionou os motivos do governo para rotular a Anthropic, sugere que o Judiciário vai exigir justificativas concretas para medidas punitivas atípicas. Se alguma liminar enfraquecer a designação de risco, o ambiente para consolidar salvaguardas via lei pode ganhar tração, já que o debate se desloca do contencioso para a regulação estável.
Por outro lado, o DoD tem sustentado que suas preocupações vão além dos limites propostos, incluindo alegações sobre riscos de pessoal estrangeiro e segurança da cadeia de suprimentos, o que mostra que a disputa não é apenas sobre armas autônomas e vigilância. Essa defesa indica que, mesmo com novas leis, discussões sobre vetores de risco em IA continuarão vivas.
Como equipes e líderes podem se preparar desde já
- Política de uso aceitável. Formalizar, no contrato e no produto, os limites da Anthropic em armas autônomas e vigilância em massa, espelhando o que tende a virar requisito legal.
- Telemetria de supervisão humana. Implementar registros invioláveis de quem autorizou o quê, quando e com base em quais evidências, com alertas para tentativas de bypass.
- Avaliação de impacto e testes comparativos. Criar matrizes de risco que comparem desempenho de sistemas autônomos com operadores humanos em ambientes realistas, já antecipando os critérios de waiver previstos no AI Guardrails Act.
- Auditorias de privacidade por design. Em vigilância, bloquear usos de dados sem base legal articulável, com detecção de consultas e correlações que caracterizem vigilância massiva em território americano.
Reflexões e insights
A controvérsia revelou algo essencial. Guardrails mínimos podem conviver com ambição estratégica em IA de defesa, desde que a arquitetura de sistemas preserve a agência humana e que as métricas de desempenho não se limitem a acerto técnico, mas incluam legibilidade, auditabilidade e responsabilidade. A disputa Anthropic versus Pentágono apenas acelerou um acerto de contas que o Congresso vinha postergando.
Outro ponto, transformar promessas de CEOs em obrigações legais reduz risco de oscilação regulatória a cada troca de contrato ou administração. A via do NDAA pode não resolver tudo, porém institucionaliza limites que, sem lei, dependem de vontade política passageira.
Conclusão
A tentativa dos democratas de codificar os limites da Anthropic em armas autônomas e vigilância em massa é, ao mesmo tempo, um gesto político e uma resposta técnica a riscos conhecidos. O AI Guardrails Act detalha proibições claras e um mecanismo de exceção com prestação de contas, enquanto a iniciativa de Schiff busca consolidar humano no loop como princípio legal.
Para o ecossistema de IA, o recado é pragmático. Ajustar contratos, controles técnicos e processos de MLOps para encaixar humano no loop, privacidade por design e trilhas de auditoria deixou de ser diferencial reputacional e caminha para requisito regulatório. Quem se antecipar vai operar com menos fricção quando as regras chegarem e com mais legitimidade quando vidas e direitos estiverem em jogo.