Google corta OpenClaw e restringe Antigravity por abuso
Google restringiu o Antigravity após relatos de uso malicioso ligado ao OpenClaw, medida que reacende o debate sobre agentes autônomos, limites de uso e o futuro das integrações abertas.
Danilo Gato
Autor
Introdução
Google Antigravity e OpenClaw viraram o assunto do fim de semana por um motivo concreto, o Antigravity foi restringido e usuários integrados via OpenClaw foram cortados por alegado uso malicioso, segundo reportagem publicada em 23 de fevereiro de 2026. A ação incluiu perda de acesso para alguns desenvolvedores que conectavam agentes a produtos Google, com justificativa de sobrecarga e violação dos termos de uso.
O episódio é relevante por três motivos, revela o risco operacional de agentes autônomos acoplados a serviços críticos, reforça a guinada de grandes provedores para experiências mais fechadas e acelera decisões de arquitetura em times que hoje dependem de integrações de terceiros. Este artigo analisa o que mudou, o que motivou a restrição, como isso se relaciona a movimentos recentes no mercado de agentes e quais passos práticos adotam-se para mitigar riscos.
O que aconteceu e por que importa
A VentureBeat reportou que o Google restringiu o Antigravity por “malicious usage”, desligando usuários que rodavam o agente open source OpenClaw com fluxos conectados a contas Google. A justificativa, segundo um engenheiro da DeepMind em postagem no X, foi um pico de uso malicioso que degradou a qualidade de serviço, levando o time a cortar rapidamente acessos fora do uso pretendido pelos termos de serviço. O Google indicou que a meta é alinhar o uso do Antigravity às regras da plataforma, com possibilidade de retorno para parte dos afetados.
Além do impacto imediato, o timing ampliou a controvérsia, dias antes, em 15 de fevereiro de 2026, foi anunciado que Peter Steinberger, criador do OpenClaw, se juntou à OpenAI para liderar a próxima geração de agentes pessoais, mantendo o OpenClaw como projeto open source sob uma fundação independente. Esse contexto acendeu leituras competitivas, já que o corte afeta um ecossistema hoje associado ao principal rival do Google.
Na prática, o evento evidencia a fragilidade de arquiteturas que dependem de “wrappers” e integrações não oficiais para acessar modelos de fronteira. O provedor precisa preservar estabilidade, segurança e economia de tokens, e quando o padrão de uso foge do esperado, o desligamento é o mecanismo mais rápido para proteger a base de clientes que usa o produto principal, o Antigravity.
Antigravity, OpenClaw e a maré dos agentes autônomos
O Antigravity despontou como ambiente de “vibe coding” centrado em agentes, com o Gemini como motor principal e uma experiência de desenvolvimento dirigida por instruções de alto nível, o que acelerou a prototipação de apps e automações. Desde o lançamento, surgiram relatos de ajuste de limites de taxa devido à demanda, reforçando que o produto ainda equilibra experiência com capacidade operacional.
O OpenClaw, por sua vez, ganhou tração como agente autônomo open source, instalado localmente ou em cloud, capaz de executar shell, acessar arquivos e orquestrar rotinas longas. A popularidade atraiu tanto entusiastas quanto fornecedores que criam camadas de governança, observabilidade e controle de riscos. Esse crescimento trouxe episódios de segurança, alertas de órgãos e até restrições em ambientes públicos, sinalizando maturidade ainda em construção.
No conjunto, Antigravity e OpenClaw ilustram o avanço do mercado de agentes, com benefícios claros de produtividade, porém com dependências, limites de uso e necessidades de compliance que mudam rápido. Quando um elo falha, toda a cadeia operacional sente o tranco.
![Ilustração de robô futurista com contexto de IA]
O estopim, uso malicioso e a ótica de capacidade
Segundo a VentureBeat, a denúncia central do Google foi um padrão de “malicious usage” que sobrecarregou o backend do Antigravity. A leitura mais pragmática é que certos fluxos orquestrados com o OpenClaw exploravam janelas de tokenização e execução que, no agregado, geravam consumo desproporcional. Provedores tendem a enxergar isso como unfair use, mesmo quando usuários não percebem que cruzaram a linha.
Há precedentes, no ano anterior, a Anthropic teria limitado o Claude Code quando padrões de uso robotizado 24 por 7 pressionaram o serviço. Embora o caso seja diferente, a semelhança está no gatilho, defender estabilidade e experiência do cliente principal diante de picos não previstos. Para equipes técnicas, o recado é claro, se uma automação depende de uma brecha de produto em consumo, latência ou limites, a hora de fechar vai chegar.
Do lado dos usuários, relatos em fóruns e redes indicaram perda de acesso a contas Google vinculadas a fluxos do OpenClaw, o que adiciona um risco de primeira ordem, acoplar desenvolvimento a identidades corporativas. Separar contas de produção de identidades primárias, com SSO independente para experimentos, reduz a superfície de dano em eventos parecidos.
A movimentação da OpenAI e o tabuleiro competitivo
O anúncio de que Peter Steinberger se juntou à OpenAI em meados de fevereiro de 2026 adicionou uma camada estratégica, porque o OpenClaw permanece open source e sob uma fundação, mas agora seu criador atua no time que mais pressiona a fronteira de agentes pessoais. A imprensa especializada registrou o movimento, assim como a discussão pública sobre independência do projeto e a não aquisição do OpenClaw pela OpenAI. Para o mercado, isso sugere duas forças em paralelo, a consolidação de agentes proprietários e a tentativa de preservar a interoperabilidade aberta.
Nesse cenário, a ação do Google fecha um duto que permitia a agentes adjacentes aproveitarem o Antigravity e o Gemini. Do ponto de vista competitivo, provedores priorizam experiências nativas, com telemetria completa, monetização direta e menos risco de comportamento não intencional via camadas intermediárias. É uma escolha de produto que tende a se repetir.
Tendência de mercado, do aberto ao jardim murado
Relatos recentes mostram que não é só o Google, há um movimento mais amplo de limitar o uso de modelos por terceiros quando o comportamento afeta qualidade, segurança ou economia. Em abril de 2026, cobertura do Axios discutiu bloqueios para ferramentas de agentes de terceiros, refletindo que plataformas querem conter abuso e preservar a experiência oficial. A mensagem para empresas é objetiva, a era do “traga seu agente” para um modelo de fronteira, usando atalhos de consumo subsidiado, está ficando curta.

Esse deslocamento já aparece em ajustes de limites do Antigravity por demanda, em decisões de segurança sobre uso do OpenClaw em ambientes governamentais e na ênfase de grandes players em IDEs, estúdios e sandboxes próprios para agentes. Na prática, o custo de ficar 100 por cento interoperável cresce na mesma medida em que se busca estabilidade, telemetria e conformidade regulatória.
![Foto de racks de servidores, referência a infraestrutura]
Impactos para times técnicos, riscos e oportunidades
- Dependência de wrappers, times que ancoram automações críticas em camadas não oficiais ficam expostos a mudanças súbitas de ToS, limites e mecanismos anti abuso. Estratégia de mitigação, negociar contratos diretos de API para workloads estáveis e críticos.
- Identidade e bloqueio de conta, misturar experimentação com a conta primária do provedor aumenta o impacto de sanções. Estratégia, isolar identidades, usar ambientes de teste desconectados do SSO principal e estabelecer governança mínima desde o protótipo.
- Observabilidade e governança, agentes autônomos exigem telemetria de ações, trilhas de auditoria, circuit breakers e orçamento de tokens. O objetivo é detectar loops, prevenir sobrecarga e reduzir falsos positivos que pareçam abuso.
- Local first e VPC, para dados sensíveis e rotinas de missão crítica, frameworks que rodam localmente ou em VPC diminuem dependência de janelas frágeis de consumo. O custo é maior, a previsibilidade também.
Oportunidades seguem vivas, com padrões claros e contratos certos, agentes autônomos podem entregar ganhos materiais em produtividade, redução de tarefa manual e responsividade a clientes. A curva de aprendizado está menos em prompt e mais em engenharia de sistemas, desenho de escopos, orquestração e controle de efeitos colaterais.
Boas práticas imediatas para quem usa Antigravity e OpenClaw
- Revisar termos de uso e limites públicos do Antigravity, identificar gatilhos de corte como uso concorrente alto, chamadas indiretas por wrappers e execução contínua de agentes. Onde houver dúvida, abrir chamado e pedir orientação específica.
- Desacoplar identidades, mover experimentação para contas segregadas, reduzir escopo de permissões, limitar OAuth e escopos IMAP, Drive e Admin, e nunca vincular e‑mail corporativo primário a agentes sem política clara de risco.
- Orçamentos e circuit breakers, definir teto de tokens por tarefa, por janela de tempo e por contexto de agente, com desligamento automático e alerta.
- Telemetria e trilhas, registrar cada ação do agente, com correlação de latência, erro e custo, para explicar picos anômalos que possam parecer abuso.
- Contratos de API, para operações core, migrar de assentos de consumidor para contratos empresariais com SLAs e limites previsíveis, reduzindo surpresas.
- Plano de contingência, preparar failover para provedores alternativos e definir modos de operação degradada quando um conector for bloqueado.
O que muda para produto, segurança e jurídico
- Produto, foco em experiências nativas. O ganho de controle operacional e de monetização pesa mais que a abertura irrestrita. Isso sugere roadmaps com IDEs de agentes, templates e plugins primeiros, de dentro para fora.
- Segurança, abuso e degradação de serviço viram critérios tão importantes quanto jailbreaks. Detecção precoce de padrões adversariais em automações será parte do pipeline de MLOps.
- Jurídico, ToS e AUP passam a ser dependências de engenharia. Equipes terão de ler cláusulas de uso aceitável como leem documentação de API.
Reflexões e insights
- A fronteira entre inovação e abuso técnico é fina. Um fluxo que otimiza custo de tokens pode parecer “malicioso” quando escapa da intenção do produto. O caminho é aproximação com o provedor, não exploração silenciosa de brechas.
- Interoperabilidade aberta continua desejável, mas exigirá camadas profissionais de governança, isolamento de credenciais, auditabilidade e contratos claros.
- A indústria caminha para dois polos, jardins murados com UX estável e custos previsíveis, e pilhas independentes mais complexas e caras, porém com controle total. Ambos são válidos, a escolha depende de risco, orçamento e requisito regulatório.
Conclusão
O corte do OpenClaw e a restrição do Antigravity, noticiados em 23 de fevereiro de 2026, são mais que um episódio pontual. Sinalizam uma nova fase em que provedores defendem a qualidade do serviço e a sustentabilidade do produto com mão mais firme, principalmente quando camadas intermediárias elevam o consumo e a incerteza operacional. Para equipes, é o convite definitivo a profissionalizar a engenharia de agentes, com contratos, telemetria e governança desde o zero.
Agentes autônomos seguem como alavancas de produtividade. A diferença agora está nos termos do jogo. Com desenho técnico responsável e escolhas realistas de plataforma, dá para capturar o valor dos agentes sem ficar refém de mudanças repentinas.
