Diagrama do loop de um agente Codex mostrando iterações via Responses API com ferramentas
Tecnologia e IA

OpenAI ativa WebSockets na Responses API, até 40% em agentes

WebSockets chegam à Responses API da OpenAI para reduzir latência, manter conexão persistente e acelerar fluxos agentic em cenários com diversas tool calls e múltiplos turnos, com relatos de ganhos de até 40% em velocidade.

Danilo Gato

Danilo Gato

Autor

23 de abril de 2026
8 min de leitura

Introdução

OpenAI ativou WebSockets na Responses API para acelerar fluxos agentic, com relatos públicos de ganhos de até 40% em velocidade em cenários reais. O anúncio oficial foi publicado em 22 de abril de 2026 e detalha como a conexão persistente e o cache de estado por sessão reduzem o overhead entre turnos, algo crítico quando há muitas tool calls.

Em aplicações de codificação assistida e automações com agentes, a cada iteração ocorre uma troca de mensagens, validações e chamadas de ferramentas. WebSockets na Responses API encurtam esse caminho ao manter a sessão viva e reutilizar estado, em vez de reprocessar histórico a cada requisição HTTP independente. O resultado é menor latência percebida e mais throughput em tarefas longas.

Este artigo explica de forma prática como o modo WebSocket funciona, quando faz diferença, o que muda na arquitetura e que números já apareceram no campo, além de dicas de implementação e otimização de latência com foco em quem constrói agentes.

Por que WebSockets aceleram fluxos agentic

A lentidão em fluxos agentic não vem apenas da inferência do modelo. Há o custo de validações do lado do serviço, reconstrução de contexto, tokenização e idas e voltas na rede. A OpenAI relata que, à medida que a geração de tokens fica mais rápida, o overhead do pipeline da API se torna o gargalo, principalmente quando o agente realiza múltiplas iterações com ferramentas. WebSockets atacam esse ponto mantendo uma conexão persistente com cache de estado por conexão.

Em testes internos descritos pela OpenAI, a equipe eliminou saltos de rede desnecessários, otimizou caches e acelerou classificadores de segurança. Ainda assim, o salto decisivo veio ao reduzir trabalho repetido entre turnos, mantendo em memória artefatos reutilizáveis do ciclo anterior, como tokens já renderizados e definições de ferramentas.

Relatos públicos do lançamento indicam melhorias de até 40% na velocidade de fluxos agentic, com ganhos adicionais em throughput de tokens por segundo em modelos voltados para código. Esses números foram observados por equipes parceiras e por times que integraram rapidamente o modo WebSocket.

O que muda na Responses API com WebSockets

A API preserva o formato familiar de response.create. Em vez de introduzir um protocolo de interação completamente diferente, a OpenAI optou por WebSockets como transporte simples, mantendo as formas de entrada e saída que os desenvolvedores já conhecem. A continuidade de contexto entre turnos é informada por previous_response_id, que sinaliza ao servidor para reaproveitar o estado armazenado em memória naquela conexão.

Na prática, o servidor mantém em cache por conexão:

  • O objeto de response anterior
  • Itens de entrada e saída anteriores
  • Definições de ferramentas e namespaces
  • Artefatos de amostragem, como tokens renderizados

Esse desenho permite processar apenas o que é novo a cada turno, evitando reprocessar todo o histórico. Também permite sobrepor tarefas não bloqueantes de pós inferência, como billing, com requisições subsequentes, reduzindo o tempo total.

Para quem usa SDKs e gateways, já há documentação e implementações que mencionam explicitamente previous_response_id em fluxos multi-turno. A Vercel, por exemplo, descreve suporte a esse campo em sua documentação do AI SDK e do gateway.

![Diagrama do loop de um agente Codex na prática]

Resultados práticos e casos citados

O post oficial lista impactos imediatos após o alfa, incluindo relatos públicos de até 40% de melhoria em fluxos agentic. Equipes de agentes de código migraram rapidamente a maior parte do tráfego para o modo WebSocket. Plataformas como Vercel reportaram queda de latência em integrações com o AI SDK e projetos como Cline e Cursor publicaram ganhos mensuráveis em cenários reais de desenvolvimento.

  • Vercel integrou o modo WebSocket no AI SDK e divulgou redução de latência em até 40% segundo as menções agregadas pelo anúncio da OpenAI.
  • Cline relatou fluxos multi-arquivo 39% mais rápidos, um dado que também circula em compilações de novidades do ecossistema.
  • Cursor atribuiu até 30% de aceleração ao usar os modelos da OpenAI com o modo WebSocket, conforme citado no anúncio.

Para além dos relatos, a documentação de modelos e guias de otimização de latência da OpenAI reforçam práticas complementares como streaming, chunking e gestão de estado de conversas. Com WebSockets, essas recomendações passam a render mais, pois o transporte deixa de ser um gargalo frequente.

Como implementar, do zero ao primeiro teste

O ponto de partida é estabelecer uma conexão WebSocket com o endpoint de Responses, autenticar com chave da API e enviar o corpo idêntico ao de response.create. A cada novo turno, envie apenas os itens novos e inclua previous_response_id para que o servidor recupere o estado anterior do cache de conexão. Documentações de terceiros e páginas de referência já sistematizam esse fluxo para quem usa SDKs ou gateways.

Boas práticas iniciais:

  • Comece com cenários onde o agente realiza várias tool calls por sessão, pois o ganho de latência tende a ser maior quando há muitos turnos encadeados.
  • Combine com streaming para acelerar o time to first token percebido pelo usuário.
  • Logue e monitore previous_response_id por sessão para auditar reuso de estado e identificar quando há quebras de conexão que forçam caminho HTTP convencional.
  • Se estiver em edge runtimes, valide limites de execução, keep-alive e política de timeouts da sua plataforma.

Para quem constrói experiências de voz e tempo real, a OpenAI também documenta WebSocket na API de Realtime para áudio e texto, alternativa que atende casos síncronos de baixa latência. O conceito de conexão persistente e autenticação é semelhante, embora a finalidade seja distinta.

Onde WebSockets brilham, e quando não usar

Cenários ideais:

  • Agentes que iteram com ferramentas locais, pesquisa web, edição de arquivos e testes, com múltiplos passos.
  • IDEs e ambientes de desenvolvimento com loops rápidos de edição e verificação, onde a latência impacta diretamente a produtividade.
  • Aplicações com histórico de conversa longo e estável por sessão, nas quais reprocessar o histórico inteiro a cada turno é desperdício.

Quando considerar outra abordagem:

  • Tarefas de disparo único, em que o custo de configurar WebSocket não compensa o benefício.
  • Ambientes com restrições severas a conexões persistentes, como algumas funções serverless com timeouts curtos e sem suporte estável a WebSockets.
  • Workloads que já migraram para background mode por natureza assíncrona e longos tempos de execução, onde a latência interativa não é prioridade.

![De requisições sequenciais a execução sobreposta]

Impacto em métricas de latência e TPS

O anúncio cita objetivos agressivos em tokens por segundo para modelos de código, com meta de 1.000 TPS e picos de 4.000 TPS, metas que demandavam cortar trabalho repetido no pipeline da API. Ao manter conexão e estado, a Responses API reduziu o tempo até o primeiro token e aproximou a experiência real do ganho de velocidade de inferência.

Em arquitetura, a mudança evita reconstrução completa do contexto a cada volta do loop, processando apenas delta de entrada, reusando roteamento de modelo bem-sucedido e aplicando verificações de segurança no que realmente mudou. Esse conjunto de escolhas explica por que ganhos percentuais de latência aparecem mesmo sem alterar o modelo em si.

Integrações e ecossistema

Ferramentas populares já expõem caminhos de adoção. A documentação da Vercel descreve como trabalhar com Responses, incluindo previous_response_id, tornando mais simples integrar WebSockets num gateway que agrega provedores. Projetos OSS e SDKs terceiros começaram a padronizar um cliente WebSocket para a Responses API, com reconexão e reenvio automático do último estado, facilitando o rollout em produção.

Ao mesmo tempo, os docs oficiais da OpenAI destacam recursos correlatos de gerenciamento de estado, como Conversation State e estratégias de streaming e compaction, que, combinados a WebSockets, elevam o teto de performance de agentes em produção.

Reflexões e insights práticos

Há um padrão recorrente em infraestrutura de IA aplicada. Quando a inferência acelera, o gargalo migra para a orquestração. WebSockets na Responses API mostram que a próxima fronteira de UX não é só o modelo, é o ciclo completo de ferramenta, validação e transporte. Em agentes que leem repositórios, editam código e executam testes, o ganho de 20 a 40% muda a sensação de fluidez na bancada de desenvolvimento.

Outra observação útil é o impacto na arquitetura de clientes. Conexões persistentes exigem atenção a backoff exponencial, detecção de quedas, limites de sessão e telemetria. A boa notícia é que a API manteve a forma de response.create, o que reduz o custo cognitivo de adoção. Em times grandes, vale acoplar feature flags para ativar WebSockets por rota, aferindo ganhos por coorte e mitigando riscos em dias de pico.

Por fim, fica o lembrete de que WebSockets potencializam outras práticas recomendadas, como streaming, chunking de tarefas e gerenciamento explícito de contexto. O combo certo libera velocidade sem abrir mão de segurança e governança.

Conclusão

WebSockets na Responses API representam um avanço de plataforma que traduz velocidade de inferência em experiência real para o usuário. Conexão persistente, cache de estado por sessão e reaproveitamento de artefatos reduzem o trabalho repetido que travava loops de agentes em produção. Relatos de até 40% de ganho reforçam que o impacto é concreto.

Para equipes de produto e engenharia, a recomendação é avaliar o modo WebSocket em jornadas com muitas tool calls e múltiplos turnos, instrumentar métricas de latência fim a fim e combinar a novidade com práticas de gerenciamento de estado e streaming. O resultado é uma base mais preparada para o ritmo de evolução dos modelos e para a expectativa de respostas imediatas.

Tags

OpenAIDesenvolvimentoAPIsAgentesPerformance