Vista aérea do Pentágono em Arlington, Virgínia
Tecnologia e IA

Funcionários do Google pedem Pichai barrar IA do Pentágono em sigilo

Carta assinada por centenas de colaboradores pressiona o Google a recusar o uso de sua IA pelo Pentágono em projetos classificados, reacendendo o debate ética versus negócios

Danilo Gato

Danilo Gato

Autor

28 de abril de 2026
11 min de leitura

Introdução

Google IA Pentágono voltou ao centro das atenções com uma carta assinada por centenas de funcionários pedindo que Sundar Pichai barre o uso dos modelos da empresa em trabalhos militares classificados. A mobilização, publicada em 27 de abril de 2026, ocorre no mesmo momento em que reportagens indicam que o Google fechou ou negocia um acordo para permitir que o Departamento de Defesa use sua IA para “qualquer finalidade legal”, sem salvaguardas semelhantes às exigidas por concorrentes.

O pedido interno ecoa tensões históricas desde o Project Maven, quando, em 2018, milhares de Googlers protestaram contra o uso de algoritmos de visão computacional em drones. Hoje, o tabuleiro mudou, os modelos fundacionais tornaram-se utilidades centrais, a infraestrutura de nuvem do Google recebeu autorizações para dados classificados e rivais como xAI e OpenAI já avançam em arranjos com o Pentágono. Ainda assim, a linha vermelha proposta pelos funcionários recoloca a pergunta essencial, que restrições são inegociáveis quando IA entra em cenários de defesa e inteligência.

O que este artigo aborda

  • O conteúdo da nova carta, o contexto das negociações e o que se sabe sobre um possível acordo classificado.
  • As diferenças entre o posicionamento do Google e o de concorrentes, com foco no caso Anthropic.
  • O status de Gemini, TPUs e autorizações para operar em ambientes classificados.
  • Riscos, salvaguardas e oportunidades práticas para empresas que fornecem IA ao setor público.

O que diz a carta dos funcionários e por que isso importa

A carta, assinada por mais de 560 a 600 colaboradores, pede que o Google recuse o uso de sua IA em cargas de trabalho classificadas, citando riscos de aplicações “desumanas ou extremamente danosas”, como armas autônomas letais e vigilância em massa. O texto associa reputação, negócio e papel da empresa no mundo a uma decisão tomada agora, em um momento de forte pressão governamental para ampliar o escopo de uso de modelos fundacionais. Relatos públicos apontam que os signatários incluem equipes de IA no Google e na DeepMind.

Diversas redações confirmaram o envio do documento a Pichai no dia 27 de abril de 2026. A Washington Post contextualizou o gesto como resposta a negociações para levar Gemini a ambientes secretos, um passo além do uso já estabelecido em sistemas não classificados. Outlets como CBS News e Euronews reproduziram trechos nos quais os autores pedem limites claros e rejeição explícita a workloads classificados.

Essa iniciativa importa por três motivos práticos. Primeiro, funcionários especializados têm assimetria de informação sobre capacidades, riscos e formas reais de abuso, o que torna o alerta mais qualificado que um protesto genérico. Segundo, pressiona o Google a explicitar salvaguardas contratuais, algo que influencia concorrentes e padrões setoriais. Terceiro, envia um sinal a reguladores e Forças Armadas de que há trade-offs reais entre agilidade operacional e princípios de uso responsável.

O acordo classificado, o “qualquer finalidade legal” e a comparação com a Anthropic

No dia 28 de abril, The Information e outros veículos reportaram que o Google assinou ou estruturou um acordo que permitiria ao Pentágono usar seus modelos de IA para “qualquer finalidade legal”, linguagem que, segundo as reportagens, difere das amarras éticas exigidas pela Anthropic e que motivaram sua exclusão do ecossistema de contratos federais semanas antes. Relatos complementares indicam que o acordo foi noticiado poucas horas após a carta dos funcionários vir a público.

A comparação com a Anthropic é inevitável. Em fevereiro de 2026, a startup recusou flexibilizar restrições contra vigilância doméstica em massa e uso para armamento autônomo pleno, o que gerou atritos com o Departamento de Defesa. Funcionários de Google e OpenAI divulgaram cartas de solidariedade, pedindo linhas vermelhas semelhantes. A TechCrunch e a Axios mapearam esse alinhamento, enquanto a TechRadar detalhou a pressão para que fornecedores aceitem a cláusula de “todos os propósitos legais”.

O raciocínio operacional por trás do “qualquer finalidade legal” é simples, o governo quer espaço de manobra amplo em cenários imprevisíveis, do planejamento logístico à inteligência de sinais. O problema, para empresas de IA, é a ambiguidade. Sem cláusulas negativas explícitas, como proibições a identificação biométrica massiva de cidadãos ou acionamento de letalidade por um sistema autônomo sem humano no circuito, cada atualização de modelo pode abrir novos vetores de risco regulatório, reputacional e técnico.

![Pentágono visto de cima, símbolo do debate sobre uso militar da IA]

Gemini, TPUs e a realidade de operar em ambientes classificados

Além de modelos, a infraestrutura importa. Reportagens recentes indicam que o Google e o Pentágono discutiram levar TPUs e serviços gerenciados para domínios classificados, inclusive com o Google Distributed Cloud e autorizações de Impact Level 6, nível associado a dados Secret, somadas a autorizações de Top Secret em ambientes específicos. Na prática, isso coloca Gemini e Vertex AI a um passo técnico do uso em workflows sensíveis, desde que contratos e regras de engajamento permitam.

Esse pano de fundo explica por que a carta insiste no termo “workloads classificados”. Em ambientes não classificados, já é pública a adoção de Gemini, ChatGPT e Grok para tarefas administrativas e de análise. A fronteira sensível está no salto para domínios secretos e, sobretudo, no que é permitido fazer lá dentro. A Axios registrou o avanço de xAI e as negociações com Google e OpenAI para esse salto, ponto que ajuda a entender a urgência do debate.

Historicamente, essa transição de pesquisa para aplicação militar ocorreu antes. Em 2018, o Project Maven uniu visão computacional e vídeo de drones, e provocou um levante interno no Google, com milhares de assinaturas e demissões. O contrato foi abandonado em 2019. Anos depois, reportagem do TechSpot destacou como a companhia mudou de postura, inclinando-se a novos contratos e disputando espaço com integradores como Palantir e Anduril. O histórico serve de lição, princípios genéricos não bastam quando a tecnologia escala.

O que está em jogo para o Google, funcionários e clientes públicos

Do lado do Google, está em jogo mais do que receita. Há três riscos centrais.

  • Risco de missão, sem escopos e salvaguardas detalhadas, a empresa pode ser arrastada para usos que conflitam com o próprio blog de Princípios de IA da companhia, anunciado em 2018, e com compromissos públicos recentes. Além disso, cláusulas elásticas tendem a gerar disputas contratuais e políticas a cada incidente operacional.
  • Risco técnico-operacional, levar modelos fundacionais a domínios classificados exige controles de segurança, auditorias, telemetria e planos de contenção de falhas compatíveis com missões de alto impacto. Sem um arcabouço de red teaming contínuo e regras de escalonamento humano, o custo total de propriedade pode explodir. Evidências sobre autorizações IL6 e ambições de hospedar TPUs em ambientes secretos mostram que a parte técnica é viável, mas o governance precisa acompanhar.
  • Risco reputacional, o caso Maven provou que a percepção pública e interna impacta recrutamento, retenção e negociação com clientes civis. Uma ruptura entre liderança e quadro técnico pode minar roadmaps de produto em IA justamente quando o Google disputa liderança com OpenAI e xAI.

Para os funcionários, o custo de falar é real, porém o benefício potencial é moldar políticas antes de incidentes. A carta oferece um caminho de compromisso, adotar limites objetivos que preservem missões legítimas de defesa, mas vetem usos incompatíveis com padrões internacionais, por exemplo, vedação a armamento autônomo sem humano no circuito e a vigilância biométrica indiscriminada de civis. Essa arquitetura contratual já apareceu em acordos públicos, embora com variações, e foi o motivo da crise com a Anthropic.

Do lado do cliente público, existem incentivos para transparência mínima e interoperabilidade. Padrões de logging, chaves KMS segregadas por domínio, auditoria fora de banda e trilhas de decisão humana ajudam a conciliar eficácia e responsabilidade. Ao aceitar salvaguardas bem desenhadas, o DoD ganha previsibilidade regulatória e reduz o risco de perder fornecedores estratégicos por controvérsias futuras.

Quanto realmente mudou desde 2018, a linha do tempo que explica 2026

  • Abril de 2018, eclode o protesto contra o Project Maven, com carta e demissões. Em junho, o Google comunica que não renovará o contrato. O estigma de “negócio da guerra” entra no vocabulário do Vale.
  • 2024 a 2025, consolidação de plataformas de IA em nuvem, integração de modelos a stacks de defesa, e autorizações para ambientes classificados amadurecem. O Google Distributed Cloud recebe IL6 em maio de 2025, sinalizando prontidão técnica para Secret e, em domínios específicos, Top Secret.
  • Fevereiro a março de 2026, o Pentágono exige que fornecedores aceitem usos para “todas as finalidades legais”. Anthropic recusa flexibilizações sobre armas totalmente autônomas e vigilância doméstica em massa, é retirada de um contrato. Funcionários de Google e OpenAI manifestam apoio público às linhas vermelhas.
  • Abril de 2026, multiplicam-se as reportagens sobre negociações avançadas entre Google e DoD. Em 27 de abril, surge a carta interna pedindo que Pichai vete workloads classificados. Em 28 de abril, veículos relatam um acordo que amplia o espectro de uso pelos militares, com linguagem de “qualquer finalidade legal”.

A sequência indica evolução do “se vamos trabalhar com defesa” para “como, com quais limites e salvaguardas”. Empresas de IA hoje não disputam apenas contratos, disputam o desenho das regras que regerão o setor por uma década.

![Logo do Google, foco dos pedidos de limites explícitos em contratos de IA]

Como definir salvaguardas contratuais sem travar a missão

Há cinco blocos de cláusulas que equilibram missão e ética de forma pragmática, com exemplos inspirados no que fornecedores e governo já discutem publicamente.

  1. Escopo positivo e negativo explícito. Permitir, por exemplo, planejamento logístico, triagem de dados de sinais com validação humana e análise de riscos cibernéticos. Vetar, por contrato, acionamento de letalidade sem humano no circuito e vigilância biométrica de massa em território doméstico. O caso Anthropic mostra que clareza evita desgastes políticos futuros, ainda que reduza flexibilidade no curto prazo.
  2. Governança de modelos e auditoria. Exigir red teaming contínuo alinhado a cenários militares, com avaliação de alucinações, jailbreaks e elicitações sensíveis. Relatórios de auditoria devem ser acessíveis a órgãos de controle, preservando segredos operacionais.
  3. Segurança e soberania de dados. Chaves geridas pelo cliente, trilhas de auditoria imutáveis, storage em domínios segregados, e inferência offline quando necessário. As autorizações IL6 e operações em domínios Top Secret implicam padrões mais rígidos de segregação e rastreabilidade.
  4. Humanos no circuito e accountability. Definir papéis, quem aprova o uso em missões, como funciona o stop button, como revisar incidentes, quem responde por vazamentos de instruções ou uso indevido.
  5. Transparência e prestação de contas públicas. Mesmo em projetos classificados, publicar compromissos de alto nível, métricas agregadas de auditoria e um sumário anual de salvaguardas preserva legitimidade sem expor operações.

O que líderes de produto e equipes de compliance podem fazer amanhã

  • Mapear casos de uso não classificados já em produção e aplicar uma versão light das salvaguardas acima. O que funciona em domínio aberto é base para negociar no classificado.
  • Criar um comitê técnico-jurídico interno para “hard cases”, com SLA para responder solicitações governamentais que peçam exceções contratuais.
  • Preparar positions públicos, uma página de “Linhas Vermelhas em IA”, simples, verificável e com exemplos, reduz ruído em épocas de crise.
  • Engajar a comunidade técnica de dentro para fora, hackathons de red teaming com regras militares simuladas ajudam a encontrar falhas antes de adversários e a formar cultura de responsabilidade.

Reflexões finais ao longo do caminho

A carta dos funcionários do Google não é um veto absoluto à cooperação com o Estado, é um pedido por limites verificáveis. Em setores críticos, regras claras protegem todas as partes, protegem a missão de defesa ao reduzir a chance de interrupções políticas, protegem o fornecedor ao evitar escândalos de uso indevido, e protegem a sociedade ao impedir que capacidades poderosas se tornem ferramentas de abuso.

Também é um lembrete de que governança de IA não é só documento. É arquitetura técnica, é telemetria, é rastreabilidade, é engenharia reversa de incentivos. Ambientes classificados exigem soluções de engenharia realistas, e o mercado reconhece fornecedores que conseguem combinar performance com previsibilidade regulatória.

Conclusão

O movimento interno no Google indica que a disputa real não é sobre trabalhar ou não com o Pentágono, e sim sobre como trabalhar. A diferença entre “qualquer finalidade legal” e contratos com linhas vermelhas objetivas determinará o risco reputacional e regulatório dos próximos anos, tanto para o Google quanto para seus pares. Relatos de acordos assinados ampliam a urgência, já que a decisão não é teórica, está acontecendo agora.

Para quem lidera produto, jurídico ou engenharia em empresas de IA, a melhor resposta é proatividade, estabelecer salvaguardas claras, comunicá-las publicamente, e desenhar trilhas de auditoria e controles que sobrevivam a mudanças políticas. A carta de 27 de abril de 2026 e as reportagens dos dias seguintes consolidam um recado, a fronteira entre inovação e responsabilidade, sobretudo em segurança nacional, será definida por cláusulas precisas e por engenharia séria, não por slogans.

Tags

GooglePentágonoIA generativaÉtica em IASetor público