Ilustração do Agentic Vision no Gemini 3 Flash com elementos visuais e texto
IA generativa

Google revela Agentic Vision no Gemini 3 Flash para imagens

A nova capacidade Agentic Vision combina raciocínio visual e execução de código, promete ganhos de 5 a 10 por cento em benchmarks de visão e já está disponível via Gemini API, com rollout para o app do Gemini.

Danilo Gato

Danilo Gato

Autor

1 de fevereiro de 2026
10 min de leitura

Introdução

Agentic Vision no Gemini 3 Flash é apresentado pelo Google como um salto em compreensão de imagens, unindo raciocínio visual e execução de código para produzir respostas apoiadas por evidências visuais. Em anúncio de 27 de janeiro de 2026, a empresa afirma ganhos consistentes de 5 a 10 por cento em benchmarks de visão ao ativar execução de código, além de um fluxo de raciocínio em etapas para zoom, anotação e manipulação de imagens.

A inclusão da palavra chave Agentic Vision aqui é intencional, já que o próprio posicionamento do Google enfatiza que visão deixa de ser um ato estático para virar uma investigação ativa, algo que reduz palpites do modelo quando faltam detalhes como um número de série em um chip ou uma placa distante. O resultado prático aparece tanto em precisão quanto em confiabilidade de passos intermediários.

O que este artigo aborda, de forma direta e prática, é como o Agentic Vision funciona, o que muda para desenvolvedores, exemplos de uso já publicados pelo Google, implicações técnicas como ferramentas suportadas e limites de contexto do Gemini 3, além de boas práticas para tirar valor da novidade desde já.

O que é Agentic Vision e por que importa

A proposta central: transformar a compreensão de imagens em um processo agêntico Think, Act, Observe. Primeiro, o modelo estrutura um plano com base na pergunta e na imagem. Em seguida, executa código Python para manipular ou analisar a imagem, como recortar, rotacionar, contar objetos ou gerar gráficos. Por fim, reinjeta as versões transformadas no próprio contexto, ampliando a visão antes da resposta final. É um ciclo que favorece verificabilidade, contexto incremental e menor alucinação.

Esse arranjo chega embarcado no Gemini 3 Flash, modelo de alta velocidade da família Gemini 3, com suporte a ferramentas como Code Execution, Search Grounding, File Search e Function Calling. De acordo com a documentação oficial, o Gemini 3 Flash preview aceita entradas multimodais, tem limite de 1.048.576 tokens de entrada e 65.536 tokens de saída, e mantém cutoff de conhecimento em janeiro de 2025.

Além disso, os release notes do Gemini API destacam que, em 17 de dezembro de 2025, a prévia do Gemini 3 Flash adicionou recursos como code execution com imagens, o que prepara o terreno para o Agentic Vision. Em janeiro de 2026, o Google iniciou a cobrança de Search Grounding, sinalizando maturidade de ferramentas de grounding junto dos modelos Gemini 3.

Como funciona na prática, do zoom à anotação

No nível prático, ativar execução de código na API libera comportamentos novos, muitos já demonstrados no Google AI Studio. Um caso citado pela empresa é o PlanCheckSolver, plataforma que valida plantas de construção. Com execução de código ligada, o sistema corta trechos de alta resolução como beirais de telhado ou seções do prédio para análise incremental. Segundo o relato, a precisão subiu cerca de 5 por cento. Essa iteração com recortes volta ao contexto do modelo, que então fundamenta o raciocínio visual na imagem, evitando respostas vagas.

Outro exemplo prático é a anotação visual. Em vez de apenas descrever, o Gemini 3 Flash desenha caixas delimitadoras e rótulos numéricos sobre a imagem para contar elementos, como dedos em uma mão. Essa espécie de quadro de rascunho visual reduz erros de contagem e torna cada passo verificável. Também há suporte a matemática visual, em que o modelo extrai dados de tabelas densas e gera gráficos com Matplotlib via Python, trocando palpites por execução determinística.

Essa abordagem converge para um padrão mais confiável em uso real. Em pipelines de inspeção, etique o que o modelo identifica e guarde os artefatos intermediários, como recortes e anotações. Em auditorias, esses artefatos funcionam como trilhas de verificação que mostram como a resposta foi construída. Em ambientes regulados, essa documentação visual pode ser decisiva para comprovar conformidade.

![Agentic Vision concept]

Onde já dá para testar e o que precisa para começar

Agentic Vision está disponível via Gemini API no Google AI Studio e no Vertex AI, com início de rollout para o app Gemini, acessível selecionando Thinking no menu de modelo. Para experimentar no Playground do AI Studio, basta ativar Code Execution em Tools. A documentação para desenvolvedores detalha como usar e quais ferramentas internas são suportadas, o que inclui Code Execution, Search Grounding, File Search e URL Context.

Para quem prefere linha de comando, o ecossistema também avança. Em 17 de dezembro de 2025, o Google anunciou o Gemini 3 Flash disponível no Gemini CLI, posicionando o modelo como eficiente em custo e latência, com foco em fluxos de trabalho de alta frequência no terminal. Isso acelera a integração de práticas agênticas em pipelines DevOps e ML Ops.

Checklist imediato para desenvolvimento:

  • Habilitar Code Execution no AI Studio ou via API, garantindo ambiente de Python com bibliotecas como Pillow, NumPy e Matplotlib caso seu fluxo dependa de transformações e gráficos.
  • Planejar prompts que explicitem o objetivo visual e permitam ao modelo criar e executar planos passo a passo, por exemplo, “conte objetos”, “extraia vinco do documento”, “normalize dados e gere gráfico”.
  • Controlar a janela de contexto, já que múltiplos recortes e imagens transformadas voltam para o prompt. O limite amplo de 1 milhão de tokens ajuda, mas é prudente aplicar limpeza e descarte de frames desnecessários.
  • Avaliar custos de grounding com Search, ativo com cobrança a partir de 5 de janeiro de 2026, se o fluxo depender de busca.

Boas práticas para produtividade e qualidade

  • Definição de plano explícito. Instrua o modelo a listar passos antes de agir, como identificar região de interesse, aplicar recorte, rotacionar se necessário e só então responder. Esse padrão se encaixa no loop Think, Act, Observe e ajuda a capturar detalhes finos.
  • Rascunho visual primeiro, resposta depois. Em contagens, sempre gere anotações com rótulos sobre a imagem e peça uma validação final. Isso reduz erros comuns em tarefas de contagem e detecção.
  • Computação determinística para aritmética. Em lugar de fazer contas no espaço textual, peça para usar Python, inclusive para normalização de dados e criação de gráficos.
  • Controle de versões de imagens. Salve as imagens transformadas, com metadados de cada passo aplicado, para auditoria e reprodutibilidade.
  • Avaliação incremental. Acompanhe métricas por etapa, por exemplo, acurácia antes e depois de recortes automáticos, ou precisão antes e depois de anotações. O próprio case do PlanCheckSolver indica ganhos ao abrir espaço para inspeções iterativas.

Casos de uso, do backoffice à borda

  • Validação regulatória. Em setores como construção, saúde e manufatura, cada passo anotado cria uma trilha de conformidade que pode ser revisada por auditores. O exemplo do PlanCheckSolver sinaliza ganhos concretos quando a inspeção vira processo, não gesto único.
  • Contagem e inventário. Em operações de varejo e logística, anotações no quadro visual ajudam a contar unidades, conferir avarias e comparar layouts.
  • Extração de dados de documentos. Tabelas densas, como notas fiscais e laudos, viram dados estruturados após parsing programático e normalização, com gráficos que ajudam a priorizar anomalias.
  • Suporte de campo. Técnicos podem capturar imagens de equipamentos, pedir zoom implícito em números de série e receber instruções com base em rótulos visuais.
  • Educação e treinamento. Ao desenhar sobre imagens, o modelo cria uma camada didática que torna o processo transparente, ideal para ensino de visão computacional.

![Visual reasoning loop]

Limitações e como mitigá las

Transparência importa. Embora haja um ganho de 5 a 10 por cento em qualidade nos benchmarks quando Code Execution está ativo, ainda existem cenários em que o modelo pode errar, especialmente com entradas ambíguas ou baixa qualidade de imagem. Em prompts de baixa especificidade, o plano pode não explorar a área certa. Mitigações:

  • Especificar regiões de interesse ou objetivos claros, como “inspecione números na placa ao fundo na parte superior direita”.
  • Incentivar passos verificáveis, pedindo para exibir recortes e anotações antes do veredito final.
  • Gerenciar contexto, já que imagens transformadas consomem tokens. Remova recortes redundantes. Planeje a iteração de forma parcimoniosa, aproveitando o limite de contexto do Gemini 3 Flash.

Outro ponto de atenção são ferramentas de grounding. O suporte oficial inclui Search, File Search, Code Execution e URL Context, o que abre espaço para pipelines híbridos que combinam evidências visuais, documentos e a web. Contudo, Grounding com Google Maps e Computer Use não estão suportados em Gemini 3, então roteiros que dependam disso precisam de alternativas.

Integração técnica, do zero ao protótipo

  • Definir objetivo e métrica. Por exemplo, reduzir erro de contagem em inventário para menos de 1 por cento, ou aumentar precisão na leitura de números de série.
  • Desenhar o fluxo agêntico. Prompt inicial que solicita plano, execução de recortes, retorno de anotações e validação.
  • Orquestrar com APIs. Use Interactions API quando fizer sentido, ou chamadas diretas ao Gemini 3 Flash com a flag de Code Execution habilitada. As notas de lançamento de dezembro de 2025 confirmam a disponibilização do recurso de execução de código com imagens.
  • Testar no AI Studio. Comece pelo Playground, ative Code Execution em Tools, rode casos reais com imagens do seu domínio, avalie artefatos intermediários e ajuste passos.
  • Migrar para produção. Considere Vertex AI para governança, versionamento e escalabilidade, ou integração com pipelines existentes via Gemini CLI quando houver workflows no terminal.

Estratégia de produto e ecosistema

A leitura estratégica aqui é clara, mesmo sem alarde. O Google empacota um modelo rápido e eficiente, o Gemini 3 Flash, e o equipa com ferramentas que reforçam verificabilidade e controle do processo. Ao tornar implicito o zoom e ao planejar que outras transformações se tornem implícitas com o tempo, a empresa mira reduzir fricção de prompts, algo crítico para adoção ampla. O roadmap oficial cita a ambição de adicionar mais ferramentas, como busca na web e busca reversa de imagens, além de levar o Agentic Vision para outros tamanhos de modelo além do Flash. Isso aponta para um stack cada vez mais orientado a agentes visuais, capaz de operar com autonomia crescente.

Para desenvolvedores, a mensagem é pragmática. Há janela de contexto ampla, ferramentas necessárias já suportadas, documentação atualizada e canais para experimentar. Para negócios, o valor aparece na confiabilidade incremental e na capacidade de auditar cada etapa do raciocínio, algo que conversa com exigências de conformidade e com metas de produtividade reais.

Conclusão

Agentic Vision no Gemini 3 Flash muda o jogo porque coloca o processo no centro. Em vez de pedir um chute bem elaborado, o modelo planeja, age com código, observa o que mudou e só então responde, o que se traduz em ganhos de 5 a 10 por cento em qualidade em benchmarks de visão quando Code Execution está ativo. Mais que números, trata se de confiança operacional em cenários de inspeção, contagem, extração e análise visual.

O caminho adiante é promissor. O Google já sinaliza novas ferramentas, mais comportamentos implícitos e expansão para outros tamanhos de modelo. Para quem constrói produtos, vale adotar desde já o padrão Think, Act, Observe, capturar artefatos intermediários, usar computação determinística sempre que possível e medir impacto no que realmente importa, velocidade, custo e qualidade.

Tags

Gemini 3Computer VisionAgentes