Arte conceitual de inteligência artificial com circuitos e ondas
Inteligência Artificial

Microsoft detalha o treinamento do Phi-4 Vision Reasoning para um modelo multimodal de raciocínio compacto

O Phi-4 Vision Reasoning chega como modelo multimodal open weight de 15B parâmetros, combinando eficiência, qualidade de dados e arquitetura de fusão intermediária para raciocínio visual e textual em larga escala

Danilo Gato

Danilo Gato

Autor

5 de março de 2026
10 min de leitura

Introdução

O Phi-4 multimodal reasoning ganhou os holofotes com o anúncio do Phi-4-reasoning-vision-15B, um modelo open weight de 15 bilhões de parâmetros voltado para raciocínio eficiente em tarefas de visão e linguagem, incluindo matemática, ciência e compreensão de interfaces. Lançado em 4 de março de 2026 no Microsoft Research Blog, o modelo está disponível no Microsoft Foundry, no Hugging Face e no GitHub.

Na prática, o objetivo é claro, entregar raciocínio visual confiável com custos de computação e latência menores, equilibrando desempenho e eficiência por meio de escolhas arquiteturais e curadoria de dados. A proposta posiciona o Phi-4-reasoning-vision-15B como alternativa compacta frente a VLMs populares e mais pesados, mantendo competitividade em benchmarks como ChartQA, MathVista, MMMU e ScreenSpot.

Por que o Phi-4-reasoning-vision-15B importa agora

A corrida por modelos multimodais geralmente empurra tamanho e custo para cima, mas o mercado real pede tempo de resposta baixo, custos previsíveis e implantação em hardware modesto. O Phi-4 Vision Reasoning foi construído com esse norte, combinando uma arquitetura de fusão intermediária, um codificador visual robusto e um pipeline de dados que privilegia qualidade e diversidade antes de escala bruta. Resultado, um modelo que interage naturalmente em tarefas de visão-linguagem, mas acerta especialmente quando o problema exige raciocínio estruturado.

Esse foco em seletividade de raciocínio é um ponto de ruptura importante. Em alguns cenários, como OCR ou legendas simples, raciocinar passo a passo mais atrapalha do que ajuda. Em outros, como equações em imagens, gráficos complexos ou leitura de telas cheias de elementos, o encadeamento de pensamento melhora a precisão. Treinar um único modelo para decidir quando pensar e quando ir direto ao ponto é um ganho prático para produtos.

Arquitetura, fusão intermediária e o papel do SigLIP-2

O Phi-4-reasoning-vision-15B adota uma arquitetura de fusão intermediária, em que o codificador de visão gera tokens visuais, projetados para o espaço de embeddings do LLM, que por sua vez conduz o raciocínio multimodal. Essa estratégia reaproveita componentes já pré-treinados em grande escala e corta custos de treinamento e inferência em comparação com arquiteturas de fusão antecipada.

No coração visual, o time escolheu o SigLIP‑2, na variante de resolução dinâmica Naflex. Em estudos de ablação, a resolução dinâmica teve melhor desempenho sobretudo em dados de alta resolução, elevando a capacidade do modelo para compreender documentos e telas densas. As técnicas multi‑crop com S2 e Dynamic S2 também foram avaliadas, mas o encoder dinâmico entregou o melhor equilíbrio. Essa linha é coerente com os avanços relatados no paper do SigLIP‑2, que combina objetivos contrastivos, autocodificação e curadoria on‑line para melhorar semântica, localização e recursos densos, além de suportar resoluções variáveis e razão de aspecto nativa.

Do ponto de vista de produto, isso significa menos perda de contexto quando a imagem traz muita informação útil em regiões pequenas, algo crítico para agentes que leem telas, formulários, recibos e gráficos complexos. Na prática, é a diferença entre ver elementos mínimos de UI e passar batido por eles.

![Arte conceitual de IA com circuito e ondas]

Seletividade de raciocínio, quando pensar e quando responder direto

Raciocínio encadeado tem custo, mais tokens e mais tempo. O time do Phi-4 Vision Reasoning treinou o modelo para alternar entre dois modos, raciocínio quando a tarefa exige integração multimodal profunda, e resposta direta quando a percepção basta. O modelo card oficial descreve ainda o uso de marcadores explícitos, como <think> e <nothink>, úteis para desenvolvedores que queiram forçar um comportamento em cenários específicos de avaliação ou integração. Esse desenho acelera tarefas triviais e reserva pensamento passo a passo para perguntas que realmente ganham com isso, como problemas matemáticos em contexto visual.

Essa seletividade conversa com resultados acadêmicos que mostram ganhos em benchmarks de matemática e ciência quando há dados com traços de raciocínio, enquanto em OCR simples o raciocínio extra pode ser contraproducente. O relatório da Microsoft destaca essa nuance e documenta opções de pipeline que evitam esquecer habilidades já aprendidas, um risco conhecido quando se ajusta demais para raciocínio.

Dados, menos é mais quando há curadoria

Escala ajuda, mas qualidade manda. Segundo a Microsoft, o Phi-4-reasoning-vision-15B foi treinado com cerca de 200 bilhões de tokens multimodais, além de aproveitar um backbone Phi‑4‑Reasoning e o core Phi‑4, que já tinham ingestões massivas, e ainda assim ficou muito abaixo de trilhões de tokens usados por outras famílias multimodais recentes. O segredo, filtrar e melhorar conjuntos abertos, somar dados internos de alta qualidade e aquisições direcionadas, incluindo dados sintéticos específicos para domínios de texto rico como gráficos e fórmulas.

A equipe relata um processo de revisão manual amostral, correção programática de formatação e re‑geração de respostas com modelos maiores quando necessário, descartando bases com erro residual alto. Também investigou a proporção ideal entre dados de matemática, ciência e uso de computador, concluindo que aumentar o bloco de matemática melhora inclusive benchmarks de grounding de UI. Curadoria e balanceamento superam a simples escalada sem direção.

Métricas e comparação com a fronteira aberta

Na comunicação oficial, o Phi-4 Vision Reasoning se diz competitivo em acurácia e mais eficiente em tempo de resposta e tokens gerados frente a modelos abertos populares, empurrando a fronteira de Pareto entre custo e qualidade. Os gráficos citam Kimi‑VL, Qwen e Gemma como pares de comparação, com média calculada em subconjuntos de ChartQA, MathVista, MMMU e ScreenSpot. É importante notar que a equipe rodou suas próprias avaliações com configurações padronizadas e promete publicar logs completos para transparência.

Do lado dos pares, Kimi‑VL adota arquitetura MoE com janela estendida, mirando eficiência em longos contextos. A série Qwen 2.5 VL evoluiu perceptivelmente em percepção multimodal, OCR e agente, com variantes de diferentes tamanhos e relatórios técnicos recentes, enquanto a linha Gemma 3 incorporou um encoder de visão baseado em SigLIP e vem sendo usada como base em múltiplos VLMs abertos. Essas referências ajudam a contextualizar o posicionamento do Phi-4 Vision Reasoning na paisagem de 2025 e 2026.

Ilustração do artigo

Especificações, disponibilidade e requisitos de execução

Além de open weight, o modelo tem licença MIT, contexto de 16.384 tokens e foi treinado, segundo o model card, com 240 GPUs B200 por 4 dias, em um período que vai de 3 de fevereiro de 2025 a 21 de fevereiro de 2026. Está disponível para uso e download no Hugging Face, com distribuição também pelo GitHub e acesso corporativo pelo Azure AI Foundry. Para servir, a recomendação inclui torch 2.7 ou superior, Transformers 4.57 ou superior e vLLM quando aplicável, com suporte validado em A6000, A100, H100 e B200.

Do ponto de vista de integração, o template de chat e o prompt de sistema fornecidos no model card ajudam a padronizar inferência e a controlar o modo de resposta, útil para manter consistência em pipelines de avaliação e aplicações sensíveis a latência. A orientação prática, use bf16 e um servidor vLLM para melhor throughput.

![Close de rosto ciborgue e trilhas de circuito]

Casos de uso práticos e o que muda para times de produto

Há ganhos imediatos em quatro frentes. Primeiro, captura de texto e estrutura em documentos e gráficos, o encoder dinâmico e a mistura de dados text‑rich melhoram o casamento entre percepção e raciocínio, útil para leitura de notas fiscais, relatórios e dashboards. Segundo, grounding de UI e agentes de computador, compreender telas densas e localizar elementos com precisão reduz cliques errados e acelera fluxos. Terceiro, educação e STEM, problemas de matemática visual, diagramas e experiências de laboratório digital se beneficiam do raciocínio seletivo. Quarto, captioning realista e VQA cotidiano, respostas rápidas quando pensar demais só atrasa.

Na engenharia, o ganho está na previsibilidade de custo. VLMs que dependem de completar longos raciocínios para toda e qualquer pergunta tendem a inflar tokens e tempo de CPU ou GPU. Com o Phi-4 Vision Reasoning, a alternância entre pensar e responder direto ajuda a manter SLAs, reduz latência média e evita que tarefas simples consumam o mesmo orçamento de prompts complexos.

Lições de treinamento que valem para além do Phi‑4

Três lições se destacam. Primeira, arquitetura com visão dinâmica, codificadores que preservam razão de aspecto e ajustam o número de patches por imagem entregam saltos em benchmarks de alta resolução sem multiplicar custos de forma descontrolada. Isso ecoa achados do SigLIP‑2, que também documenta ganhos em recursos densos quando combina objetivos de pré‑treino e curadoria ativa.

Segunda, curadoria vencendo escala indiscriminada, remover ruído, corrigir formatação, regenerar respostas ruins e aumentar sinteticamente com controle de estrutura visual se traduz em precisão melhor em domínios de cauda longa, como gráficos, documentos e fórmulas. Terceira, balancear domínios de dados, aumentar o bloco de matemática não piorou grounding de UI, melhorou ambos, um indício prático de que tarefas de raciocínio podem transferir benefícios para percepção quando bem dosadas.

Como o Phi‑4 se posiciona frente a Qwen, Gemma e Kimi‑VL

Qwen 2.5 VL consolidou uma família ampla, do 3B ao 72B, com foco forte em OCR, grounding e agentes, além de variantes Omni. Serve como referência de capacidade e também de apetite por dados, com relatos de pré‑treino multimodal em ampla escala. Gemma 3, por sua vez, integra SigLIP como encoder visual e reforça a tendência de adotar encoders contrastivos de alta qualidade. Kimi‑VL explora MoE para eficiência com contexto estendido. O diferencial do Phi‑4 Vision Reasoning é orquestrar essas peças com finalidade explícita, raciocínio seletivo e eficiência medida em tokens e tempo.

Para times que precisam implantar em GPU única ou nós modestos, a combinação de 15B parâmetros, contexto de 16k e o design de raciocínio sob demanda é pragmática. Para quem quer empilhar agentes multimodais que clicam, leem e agem na tela, a parte de grounding e screen understanding é um acelerador imediato.

Riscos, responsabilidades e limites conhecidos

Como todo VLM aberto, existem limites, o próprio model card explicita que o treinamento é majoritariamente em inglês e que usos de alto risco precisam de avaliações adicionais de acurácia, segurança e fairness. A recomendação prática inclui adotar serviços de segurança de conteúdo e desenhar guardrails no nível da aplicação. A transparência sobre potenciais vieses e a necessidade de avaliações por domínio permanece central.

Para aplicações em setores regulados, convém combinar o modelo com validação humana, dados proprietários e checagem factual via RAG. Além disso, benchmarks são um guia, não substituem testes no seu conjunto de dados, principalmente quando formatos visuais, idiomas e convenções diferem dos usados no treinamento.

Conclusão

O Phi-4 Vision Reasoning mostra que há espaço para avançar em raciocínio multimodal sem depender apenas de mais parâmetros e mais dados. Arquitetura de fusão intermediária com encoder visual dinâmico, curadoria pesada de dados e um design que alterna pensar e responder direto entregam um pacote convincente para quem precisa de precisão, latência e custo sob controle. Para 2026, é uma leitura clara do que o mercado valoriza em VLMs, utilidade prática e eficiência.

O próximo passo é medir impacto no seu contexto, documentos próprios, telas reais, gráficos recorrentes. O modelo está aberto, a base técnica é sólida e as escolhas de engenharia são reproduzíveis. Nesse cenário, times que tratam dados como produto, e não apenas como combustível, tendem a capturar o melhor do Phi-4 Vision Reasoning e a transformar benchmarks em valor concreto.

Tags

Modelos MultimodaisMicrosoft ResearchVLM