Vista aérea do Pentágono em Arlington, Virgínia
Política de IA

OpenAI vai alterar acordo com o Pentágono para banir vigilância em massa de americanos

Após críticas públicas, a OpenAI incluiu linguagem explícita no contrato com o Pentágono para vetar o uso de sua IA em vigilância em massa de cidadãos nos EUA, além de reforçar salvaguardas técnicas e jurídicas.

Danilo Gato

Danilo Gato

Autor

23 de março de 2026
9 min de leitura

Introdução

OpenAI vai alterar acordo com o Pentágono para banir vigilância em massa de americanos. A decisão foi anunciada depois de questionamentos sobre a redação original do contrato e busca tornar explícito que a IA da empresa não poderá ser usada para monitoramento em larga escala de cidadãos nos Estados Unidos. O movimento ocorre poucos dias após a formalização da parceria com o Departamento de Defesa para uso dos modelos da OpenAI em redes classificadas.

A importância do tema vai além de um ajuste contratual. Em 28 de fevereiro de 2026, a OpenAI divulgou o acordo enfatizando duas linhas vermelhas, proibições de vigilância doméstica em massa e exigência de responsabilidade humana em armas. Após críticas, a empresa afirmou que adicionaria linguagem explícita contra vigilância doméstica, alinhada a leis como a Quarta Emenda, o National Security Act de 1947 e a FISA de 1978.

O artigo aprofunda o que mudou no texto, o contexto geopolítico e de mercado que levou à revisão, as salvaguardas técnicas e jurídicas anunciadas, as críticas sobre brechas como “coleta incidental”, o que isso significa para políticas de IA em governos e empresas, além do que acompanhar nos próximos meses.

O que exatamente mudou no acordo

  • A OpenAI indicou que o contrato será emendado para incluir texto claro, o sistema de IA “não será intencionalmente usado para vigilância doméstica de pessoas e nacionais dos EUA”, em conformidade com leis federais aplicáveis. Esse compromisso foi comunicado publicamente por Sam Altman após o fim de semana de críticas.
  • A empresa reforçou que já havia “salvaguardas técnicas” e camadas de segurança, mas admitiu a necessidade de deixar inequívoca a vedação à vigilância em massa no território americano.
  • A redação referenciada cita explicitamente a Quarta Emenda, o National Security Act de 1947 e a FISA de 1978 como arcabouço jurídico que baliza o uso.

No site institucional, a OpenAI descreve um “approach em camadas”, que combina contrato, políticas de uso, um safety stack e especialistas técnicos no circuito para impedir usos inaceitáveis, além de prever consequências em caso de violações governamentais.

![Vista aérea do Pentágono]

Por que essa cláusula importa para democracia, segurança e compliance

A cláusula de OpenAI Pentágono vigilância em massa não é apenas simbólica. Ela sinaliza, para agentes públicos e fornecedores, que a adoção de modelos de IA em contextos sensíveis precisa vir acompanhada de limites verificáveis e auditáveis. A menção direta a leis como a FISA de 1978 e ao escudo constitucional da Quarta Emenda estabelece um padrão mínimo de due diligence jurídica dentro do governo federal.

No entanto, especialistas e críticos apontaram atenção para termos como “intencionalmente” ou “deliberado”, que podem deixar flancos para o argumento de coleta “incidental” de dados de americanos. O receio, segundo análises publicadas, é que mesmo com a proibição de uso deliberado, dados de cidadãos possam entrar no pipeline por vias indiretas e, ainda assim, serem processados de forma legal sob certas interpretações.

A resposta pública do Departamento de Defesa foi na direção de que a pasta não se engaja em vigilância doméstica ilegal, com ou sem IA, e de que a política e a lei já refletem a oposição a vigilância em massa e a armas autônomas sem envolvimento humano. Mesmo assim, a história recente da regulamentação e do uso de tecnologias aponta que linguagem contratual precisa ser acompanhada de governança técnica, testes de segurança e trilhas de auditoria.

O contexto, da ruptura com a Anthropic ao acordo com a OpenAI

O pano de fundo imediato envolve a ruptura entre o Departamento de Defesa e a Anthropic. A empresa resistiu à exigência de permitir “todos os propósitos legais”, mantendo linhas vermelhas contra vigilância doméstica em massa e armas autônomas totalmente letais. Em fevereiro, a Anthropic disse que o “último oferecimento” do Pentágono era inaceitável, e logo depois o governo moveu-se para restringir seu uso em agências federais, enquanto o acordo com a OpenAI avançava.

Reportagens recentes descrevem o contencioso como um teste de estresse entre Vale do Silício e o complexo de defesa, com implicações para como os maiores modelos serão integrados a ambientes classificados. Houve inclusive questionamentos públicos de ex-dirigentes de cibercomando sobre os riscos de rotular uma única empresa como “risco de cadeia de suprimentos”, por potencial abalo à confiança com o setor privado.

A disputa escalou para ações legais, com a Anthropic processando o Pentágono por sua designação de risco de cadeia de suprimentos, alegando violações de liberdade de expressão e devido processo, ao mesmo tempo em que reafirmou sua recusa a usos como ataques autônomos e vigilância em massa.

Salvaguardas técnicas, políticas e o que falta transformar em prática

O discurso de “safety stack” e “especialistas no circuito” ganha relevância quando traduzido em controles operacionais. A OpenAI descreve um arranjo de camadas, políticas de uso proibindo abusos, verificação de contexto de uso e monitoramento contínuo. No entanto, a eficácia depende de processos de validação, de mecanismos de detecção de abuso e da capacidade de suspender acessos rapidamente quando houver desvio.

Práticas recomendadas para contratos públicos de IA que lidam com dados sensíveis incluem:

  • Minimização de dados, coleta orientada por finalidade específica e logs imutáveis para auditoria. Referenciar explicitamente limites de retenção e descarte seguro.
  • Model cards e system cards adaptados ao contexto de missão, com documentação de limitações, viéses conhecidos e cenários de falha.
  • Red teaming contínuo no ambiente do cliente, com cenários de abuso que espelham riscos como identificação de indivíduos, reidentificação de dados e inferência sensível.
  • Circuit breakers contratuais, capazes de suspender execuções ou bloquear endpoints diante de sinais de uso proibido, com SLAs claros.
  • Programas de bug bounty e canais de denúncia internos, protegidos, para reportar violações de política rapidamente.

Ilustração do artigo

Esses pontos conversam com o compromisso público de não permitir vigilância em massa doméstica, mas exigem métricas e relatórios periódicos, algo que ainda não está detalhado publicamente.

As críticas sobre “coleta incidental”, risco de efeito deslizante e como fechar brechas

Análises independentes destacaram que, enquanto o texto fala em não usar “intencionalmente” a IA para vigilância de americanos, cenários de coleta incidental podem persistir. O receio é que dados de cidadãos sejam capturados por proximidade ou por provedores terceirizados, e posteriormente processados sob o argumento de que a coleta não foi deliberada. A recomendação de especialistas é substituir testes de intenção por critérios objetivos de uso, como bloqueios técnicos para consultas que envolvam identificadores sensíveis de cidadãos, além de auditorias específicas sobre datasets e prompts executados.

Na comunicação pública, representantes do governo enfatizaram conformidade com leis e rejeição a vigilância em massa e a armas autônomas sem humanos. Ainda assim, a própria necessidade de esclarecer o texto mostra que o risco de interpretação existe e que a governança deve ser tão explícita quanto as cláusulas do contrato.

![Logo da OpenAI]

Implicações para empresas, governos locais e fornecedores de tecnologia

  • Empresas que prestam serviços ao setor público devem revisar cláusulas de “todos os propósitos legais”. A experiência recente sugere que guardrails contratuais, combinados com verificações técnicas, são cada vez mais exigidos em licitações que tocam dados de pessoas. O caminho adotado pela OpenAI, de anunciar salvaguardas explícitas e safety stack, tende a se tornar baseline de mercado.
  • Governos estaduais e municipais podem adotar linguagem semelhante quando contratarem modelos para segurança pública, saúde ou educação, prevenindo usos de alto risco como monitoramento de multidões, identificação biométrica contínua ou análise de dados pessoais em larga escala. O precedente federal acelera a normalização dessas exigências.
  • Fornecedores devem preparar artefatos de conformidade, do tipo data maps, listas de controles, registros de acesso e trilhas de auditoria prontas para inspeção, encurtando ciclos de due diligence. Isso é especialmente relevante quando o debate público já expôs temores sobre brechas como coleta incidental.

O que observar nos próximos meses

  • Publicação do texto final do aditivo contratual, com a linguagem completa que veda vigilância em massa de americanos e detalha as alavancas de execução e auditoria. Isso incluirá a forma de verificar conformidade com leis como a FISA e a Quarta Emenda, citadas na comunicação oficial.
  • Como outros laboratórios e big techs, como Google e xAI, posicionam seus contratos. O ambiente competitivo mudou após o impasse com a Anthropic e, segundo reportagens, há movimentação para aprovar outros fornecedores em sistemas classificados.
  • Eventuais definições legislativas ou regulatórias, já que líderes de ciberdefesa e parlamentares discutem como monitorar o uso militar de IA e evitar que salvaguardas virem letra morta.

Casos e dados recentes que ajudam a entender o cenário

  • Anúncio inicial do acordo da OpenAI com o Pentágono em 28 de fevereiro de 2026, com ênfase nas linhas vermelhas sobre vigilância em massa doméstica e responsabilidade humana no uso da força. O anúncio ocorreu em meio à tensão governamental com a Anthropic, que rejeitou termos semelhantes.
  • Reação pública e posterior recuo tático, quando Sam Altman publicou uma mensagem interna em X, detalhando que a empresa faria adições no contrato para deixar expresso o veto a vigilância doméstica. Citações a leis federais foram incorporadas na comunicação do ajuste.
  • Críticas de analistas sobre o risco de brechas via “coleta incidental”, já que a redação inclui termos de intenção, o que levaria a discussões sobre legalidade de dados coletados de forma não direcionada.
  • Posição pública do Departamento de Defesa, dizendo não ter interesse em vigilância em massa de americanos, por ser ilegal, e reforçando a rejeição a armas totalmente autônomas.

Conclusão

O ajuste no acordo da OpenAI com o Pentágono é uma vitória parcial da governança responsável de IA. A inclusão explícita de proibições à vigilância em massa de americanos dá um norte para políticas públicas e contratos futuros, ao mesmo tempo em que eleva o patamar de transparência esperado de fornecedores em ambientes críticos. A experiência recente com o impasse envolvendo a Anthropic reforça que princípios precisam estar escritos, testados e auditáveis nos ambientes reais.

Ainda há trabalho a fazer. Termos abertos como “intencionalmente” continuarão gerando debate enquanto processos de coleta e tratamento de dados permanecerem complexos e distribuídos. O foco agora deve ser transformar cláusulas em mecanismos verificáveis, com limites técnicos, métricas de conformidade e accountability clara. O setor público que contratar IA em 2026 terá uma referência mais exigente, e o mercado, um incentivo direto para amadurecer controles, documentação e cultura de segurança desde a origem.

Tags

OpenAIPentágonoGovernança de IA