Google assina acordo de IA classificada com o Pentágono
Relatos indicam que o acordo permite ao Pentágono usar modelos de IA do Google em trabalhos classificados, enquanto mais de 600 funcionários pressionam a empresa a impor limites éticos claros.
Danilo Gato
Autor
Introdução
O acordo de IA classificada entre Google e Pentágono reacendeu um debate central sobre ética, governança e poder tecnológico. A palavra-chave aqui é acordo de IA classificada, e o que está na mesa é o acesso do Departamento de Defesa aos modelos do Google para usos que não podem ser tornados públicos, reportado como válido para qualquer propósito governamental legal.
O momento é sensível. Em 27 de abril de 2026, mais de 600 funcionários assinaram uma carta pedindo que a liderança barrasse o uso classificado dos modelos. No dia seguinte, novas reportagens apontaram que o acordo havia sido firmado, consolidando o Google ao lado de outras big techs que aceitaram cláusulas amplas com o governo.
Este artigo analisa o que há de novo nesse acerto, a evolução do relacionamento entre big techs e Defesa, o que muda na prática para segurança e compliance, e como gestores podem reduzir riscos técnicos, legais e reputacionais.
O que foi acordado e por que isso importa
Relatos indicam que o acordo permite ao Pentágono usar os modelos de IA do Google para qualquer finalidade governamental legal, com o trabalho ocorrendo em ambientes classificados. Essa amplitude de escopo, usada em contratos recentes, é vista por especialistas como um guarda-chuva que cobre de planejamento de missões a análise de inteligência. O detalhe que mais chama atenção é a expressão qualquer finalidade legal, linguagem adotada em acordos similares com outros fornecedores.
A repercussão interna foi imediata. Funcionários do Google, incluindo perfis de alto nível em IA, pressionaram a liderança a estabelecer linhas vermelhas explícitas, sob o argumento de que a natureza classificada impede auditoria adequada quanto a riscos de vigilância em massa e armamentos autônomos. O teor dessa crítica ecoa o histórico recente do setor, com outra empresa de IA sofrendo retaliações por manter salvaguardas.
Do lado institucional, o Departamento de Defesa vem estruturando plataformas para acelerar o uso de IA comercial, como a GenAI.mil, lançada em dezembro de 2025 com o Gemini for Government do Google como primeira capacidade em redes não classificadas. Esse passo pavimentou o terreno operacional para agentes e fluxos de trabalho com IA em larga escala, e ajudou a criar precedentes de integração, segurança e auditoria que agora embasam iniciativas mais sensíveis.
Linha do tempo e contexto: do GenAI.mil ao acordo classificado
- 9 de dezembro de 2025, o Pentágono lança a GenAI.mil, seu hub de IA generativa, e adota o Gemini for Government como primeiro modelo em uso amplo, voltado a produtividade e tarefas administrativas, em redes não classificadas. O anúncio público destacou casos de uso como automação de fluxos de trabalho e suporte à redação de documentos.
- Início de 2026, o Departamento de Defesa pressiona fornecedores para aceitar uso dos modelos para todos os propósitos legais. Uma empresa que manteve salvaguardas contra vigilância doméstica em massa e armas totalmente autônomas acabou classificada como risco de cadeia de suprimentos e foi gradualmente desligada de sistemas governamentais, o que catalisou um rearranjo no mercado.
- 27 de abril de 2026, mais de 600 funcionários do Google enviam carta pública a Sundar Pichai pedindo que não aceite o uso classificado dos modelos. O número, a abrangência de áreas e o momento pré-decisão tornaram o documento um marco de governança interna.
- 28 de abril de 2026, reportagens indicam que o Google assinou um acordo classificado com o Pentágono, juntando-se a outros players de IA que já aceitaram termos parecidos. Em paralelo, veículos ainda descreviam as tratativas como em negociação horas antes, ilustrando a velocidade do desfecho.
![Vista aérea do Pentágono]
O que muda tecnicamente: modelos, chips e ambientes
No curto prazo, o impacto mais visível é a possibilidade de executar os modelos do Google em domínios de missão, sob políticas de classificação e controles de acesso específicos. Há discussões em andamento para levar chips especializados, como TPUs, para ambientes acreditados, algo que redimensiona latência, custo e confidencialidade para workloads sensíveis. O movimento complementa a estratégia de IA em nuvem híbrida e perimetral do governo.
A experiência adquirida na GenAI.mil, embora concentrada em redes não classificadas, criou um arcabouço de integração, logging, telemetria e segregação de dados. Em comunicações públicas, autoridades destacaram que dados governamentais usados nessas plataformas não alimentam modelos públicos, uma exigência de soberania de dados que tende a se manter e até se endurecer no contexto classificado.
Em termos de produto, as variantes governamentais de modelos de base costumam trazer controles adicionais, como roteamento por políticas, trilhas de auditoria mais finas, gateways de prompts sensíveis e mecanismos de bloqueio de capacidades consideradas de alto risco. A execução em enclaves certificados, associada a tokens de hardware e segmentação em níveis de impacto, busca reduzir superfícies de ataque e a probabilidade de exfiltração acidental. Esses requisitos, comuns em contratos federais, tornam-se cruciais quando a própria descrição do caso de uso é classificada.
Ética e governança: as linhas vermelhas possíveis
A linguagem qualquer finalidade legal cria um dilema. Na visão de reguladores e de parte da academia de procurement, isso dá flexibilidade contratual para cenários de segurança nacional, mas desloca a garantia ética primária para a interpretação de legalidade em um ambiente opaco ao escrutínio público. Por isso, a pressão para explicitar linhas vermelhas, como proibição de vigilância doméstica em massa e exigência de humano no loop em decisões de força letal, cresceu entre funcionários e especialistas. As declarações públicas recentes de porta-vozes militares tentam acalmar, afirmando que vigilância em massa de americanos é ilegal e que não se busca armas sem controle humano significativo.
Há, no entanto, precedentes de fricção. Quando fornecedores insistiram em cláusulas éticas explícitas, houve risco de exclusão do ecossistema de contratos, com impacto reputacional e financeiro. Esse contexto ajuda a explicar por que empresas aceitam redigir termos na moldura todos os propósitos legais, buscando negociar salvaguardas técnicas na implementação, como telemetria reforçada, procedimentos de auditoria ex post e controles de capacidade.
Para equipes de produto e compliance, três salvaguardas são particularmente relevantes neste tipo de contrato:
- Garantias de humano no loop para qualquer capacidade de seleção de alvos, priorização de engajamento ou avaliação de danos colaterais. Mesmo quando a decisão final permanece humana, a recomendação do modelo precisa ser rastreável e auditável, com justificativas registradas.
- Controles de geofencing e de finalidade, que restringem o modelo a contextos, missões ou teatros pré-aprovados. Esse desenho pode combinar restrições de dados, prompts e ferramentas externas.
- Auditorias técnicas independentes, com amostragens controladas por um terceiro confiável dentro do aparato estatal, para reduzir assimetria informacional e manter due process sobre desvios significativos.
Pessoas e cultura: por que a oposição interna voltou com força
O Google já viveu uma ruptura com o Pentágono no passado. Em 2018, a empresa encerrou sua participação no Project Maven após protestos internos em larga escala, que questionavam usos militares de visão computacional em contextos letais. O episódio moldou a cultura corporativa de IA e inaugurou uma era de cartas abertas e demissões por objeção de consciência nas big techs. O retorno do tema em 2026 mostra que a tensão permaneceu latente, agora acrescida pela escala dos modelos de linguagem e agentes.
Na carta de 27 de abril de 2026, os funcionários pediram que a liderança rejeitasse o uso classificado dos modelos. O argumento central é governança, já que a classificação impede monitoramento e prestação de contas adequados, especialmente quando a fronteira entre apoio administrativo e apoio operacional é fluida. A comunidade de pesquisa aponta riscos de uso indevido em vigilância e em decisões que afetam vidas, e pede que parâmetros éticos explícitos constem dos contratos.
A mobilização também reflete a evolução do mercado. Ao ver concorrentes aceitarem cláusulas amplas e colherem contratos relevantes, cresce a pressão competitiva. Junto com isso, há evidências de conversas para levar hardware de IA a ambientes acreditados, o que sugere uma aposta de longo prazo do governo em rodar modelos avançados próximo aos dados e sistemas de missão. O custo de ficar de fora desse ciclo de aprendizado é estratégico, o que torna a decisão corporativa mais complexa.
![Placa do Google no campus de Mountain View]
Cenários práticos de uso e os riscos adjacentes
- Inteligência e análise de sinais, sumarizando relatórios e cruzando fontes heterogêneas. Benefício, velocidade e maior cobertura. Risco, alucinações operacionalizadas podem propagar viés ou erro factual em cascata. Mitigação, validação cruzada com dados confiáveis, thresholds de confiança e revisão humana obrigatória.
- Planejamento logístico e manutenção preditiva, combinando agentes para gerar checklists, simular rotas e priorizar reparos. Benefício, disponibilidade e prontidão. Risco, dependência excessiva de recomendações geradas. Mitigação, testes A B de políticas de decisão e auditorias de eficácia.
- Operações de informação e defesa cibernética, com geração de playbooks e classificação de incidentes. Benefício, resposta mais rápida. Risco, uso ambíguo em operações ofensivas ou de influência. Mitigação, delimitação contratual de propósito e segregação de dados por missão.
Esses cenários estão em linha com a expansão recente da IA comercial nas Forças Armadas, visível na criação do GenAI.mil e na adoção acelerada de ferramentas de agentes em redes não classificadas. A transição do unclass para o class exige reforço de governança, sobretudo em trilhas de auditoria, explicabilidade e gestão de dados sensíveis.
Competição entre fornecedores e implicações para o ecossistema
O acordo insere o Google num tabuleiro onde já aparecem OpenAI e xAI, que aceitaram molduras contratuais de todos os propósitos legais. A exceção notável foi a disputa de uma outra fornecedora de IA que insistiu em travas contra vigilância doméstica em massa e armas totalmente autônomas, e viu seus contratos serem postos em risco, com impactos judiciais e políticos de alto perfil. Esse contraste mostra a força do instrumento contrato como regulador de fato, em áreas onde a legislação ainda é incipiente.
Para startups e PMEs de IA que vendem ao setor público, três lições práticas emergem:
- Clareza sobre limites éticos precisa ser negociada antes da fase de acreditação de ambientes e integração de dados, quando o poder de barganha é maior.
- Investimento em soluções de trilha de auditoria, retenção e segregação de logs facilita acordos que exigem accountability mesmo sob classificação.
- Diversificar portfólio entre casos administrativos e operacionais reduz a dependência de contratos com linguagem ampla.
O que observar nos próximos meses
- Detalhes técnicos e jurídicos, ainda que não públicos, tendem a se refletir em anúncios secundários, como credenciamento de hardware, certificações de ambientes e notas sobre data sovereignty. Reportagens técnicas recentes já indicavam conversas para execução de TPUs em ambientes acreditados.
- Posição oficial do Google sobre salvaguardas, especialmente humano no loop e limites a vigilância doméstica. Atualizações de políticas e white papers corporativos podem sinalizar compromissos práticos sem violar confidencialidade do contrato.
- Reação de órgãos de controle e do Congresso, dado o debate sobre regulação por contrato e a adoção da cláusula todos os propósitos legais em guias de compras públicas. Esse ponto já entrou no radar de policy em 2026.
Conclusão
O acordo de IA classificada do Google com o Pentágono marca uma inflexão no relacionamento entre big techs e defesa. A dobradinha velocidade e escala que a IA comercial oferece é irresistível para missões complexas, mas a linguagem contratual ampla empurra muito do debate ético para bastidores e para controles técnicos. O risco não é apenas reputacional, é operacional, porque decisões suportadas por modelos precisam de trilhas de justificativa e de responsabilização que resistam ao segredo de Estado.
Cabe a executivos, engenheiros e equipes de compliance transformar compromisso em prática verificável. Em ambientes classificados, a governança vive do detalhe, e detalhes moram em logs, políticas de capacidade, humano no loop e auditorias de verdade. Se essas peças entrarem no tabuleiro desde já, a promessa de eficiência não precisará ser comprada com um cheque em branco ético.
