Tela de terminal com código colorido representando execução em ambiente de computador
Tecnologia e IA

OpenAI adiciona shell, containers e ambiente à Responses API

Nova capacidade equipa a Responses API com ambiente de computador, shell e containers para executar fluxos de trabalho de agentes com orquestração, segurança e persistência de estado.

Danilo Gato

Danilo Gato

Autor

14 de março de 2026
10 min de leitura

Introdução

OpenAI equipou a Responses API com um ambiente de computador, um shell tool e um workspace em containers. Essa combinação permite que agentes façam mais do que conversar, agora executam comandos, manipulam arquivos, chamam APIs e geram artefatos úteis como planilhas e relatórios em fluxos de trabalho reais. Palavra chave: Responses API ambiente de computador.

A mudança ataca dores clássicas na construção de agentes, como onde guardar arquivos intermediários, como evitar copiar tabelas enormes no prompt, como dar acesso de rede com segurança e como lidar com timeouts e retries sem criar um orquestrador do zero. O pacote integra orquestração na Responses API, execução via shell em um container hospedado, rede restrita e persistência de contexto, além de camadas de skills e compaction para longas execuções.

O artigo aprofunda o que muda com o ambiente de computador na Responses API, como o shell tool funciona, quando usar containers hospedados versus execução local, implicações de segurança e migração a partir do Assistants. Também traz casos e benchmarks do ecossistema de ferramentas como computer use e file search que se conectam a essas capacidades.

O que significa “equipar” a Responses API com ambiente de computador

Na prática, a Responses API orquestra o loop do agente: recebe o prompt com histórico e instruções de ferramentas, decide a próxima ação e, se optar por shell, devolve comandos para execução, recebe a saída e segue no ciclo até concluir a tarefa. O ambiente de computador inclui um filesystem para entradas e saídas, suporte a armazenamento estruturado opcional como SQLite e rede com acesso restrito, tudo dentro de um container isolado. Isso amplia o escopo de casos de uso, como rodar serviços, chamar APIs e produzir artefatos reutilizáveis.

Outra peça relevante é o treinamento de modelos para propor comandos de shell. Segundo a OpenAI, modelos GPT 5.2 ou posteriores já aprendem a planejar e emitir comandos adequados que a plataforma executa no container. A Responses API mantém a conexão de streaming com o runtime, multiplexa execuções concorrentes e aplica limites de saída por comando, o que ajuda a manter o contexto eficiente mesmo quando logs de terminal são grandes.

Shell tool, containers e quando escolher cada modo

O shell tool dá ao modelo um terminal completo, suportando utilitários Unix como grep, curl e awk. Há dois caminhos de execução: containers hospedados gerenciados pela OpenAI e runtime local, que o time do desenvolvedor opera. Para o hosted shell, a recomendação é usar environment do tipo container_auto, que provisiona e gerencia o container para a requisição com mínima fricção. Para o local, o mesmo protocolo de shell_call e shell_call_output se aplica, porém com controle total sobre o ambiente.

Na perspectiva de segurança, a documentação ressalta a necessidade de sandboxing, uso de allowlists ou denylists e logging de atividade para auditoria, já que rodar shell arbitrário oferece riscos naturais. Em organizações com requisitos de conformidade mais rígidos, o modo local pode ser preferível para segregar redes, integrar com EDRs e aplicar políticas corporativas. Já o container hospedado acelera o time-to-value em POCs, automações pontuais e pipelines determinísticos.

![Tela de terminal com código colorido]

Skills, persistência e compaction para agentes de longa duração

Além do shell e do container, a OpenAI descreve uma camada de skills versionadas, carregadas pela Responses API antes da execução. A plataforma busca metadados do skill, baixa o bundle, descompacta no container e atualiza o contexto do modelo com caminho e descrições. Com isso, o agente explora instruções, identifica scripts relevantes e os executa via shell, tudo no mesmo loop.

Para manter coerência em execuções longas, a Responses API introduz compaction nativo. O modelo analisa o estado anterior, preserva o que importa em uma representação criptografada eficiente, e o próximo turno carrega essa síntese junto de partes de alto valor da janela anterior. O efeito é permitir que workflows se estendam por muitas iterações sem perder o fio da meada, mantendo a Responses API ambiente de computador funcional por mais tempo.

Como o “computer use” e o “file search” se conectam a esse avanço

A OpenAI também vem maturando ferramentas complementares. No anúncio recente de new tools for building agents, a empresa detalha o computer use, que captura ações de teclado e mouse para automatizar navegação em apps e na web, movido pelo mesmo modelo CUA usado no Operator. Em benchmarks, registrou 38,1 por cento no OSWorld para tarefas completas de uso de computador, 58,1 por cento no WebArena e 87 por cento no WebVoyager, números que indicam progresso e, ao mesmo tempo, a necessidade de supervisão humana em SOs.

No mesmo pacote, o file search oferece busca vetorial e otimização de consultas em documentos, com casos como a Navan usando RAG orientado a políticas internas e bases de conhecimento. Essas peças somam-se ao Responses API ambiente de computador para formar pipelines fim a fim: buscar dados, processar no container, compor resultados e entregar artefatos confiáveis.

![Código em editor com destaque de sintaxe]

Orquestração prática, paralelismo e governança

A Responses API consegue executar vários comandos em paralelo usando sessões separadas de container, cada uma com streaming independente de saída. Em tarefas de dados, por exemplo, o agente pode buscar registros em paralelo, validar resultados e consolidar apenas o que é relevante, sem saturar o contexto com logs extensos graças a limites controlados por comando. Essa arquitetura reduz latência percebida, melhora throughput do agente e aumenta a previsibilidade de pipelines.

Governança é um capítulo à parte. No modo hospedado, a rede é restrita por padrão, o filesystem é isolado, e há suporte para armazenamento estruturado opcional. Em paralelo, a documentação do shell reforça a prática de permitir apenas comandos e destinos esperados, com auditoria habilitada. Em ambientes regulados, políticas de approval para shell_call podem exigir confirmação humana antes de executar ações sensíveis, equilibrando autonomia e segurança.

Migração do Assistants e foco de plataforma na Responses API

A OpenAI consolidou que a Responses API assumiria as capacidades do Assistants API anunciadas em 2025, com descontinuação programada do Assistants para 26 de agosto de 2026. No cenário atual, planejar migração é imperativo para equipes que ainda dependem de threads e runs antigos, já que o novo stack prioriza orquestração via Responses, uso de tools como shell, file search e computer use, e evolução do Conversations API para mensageria.

Implicação direta para roadmaps: revisar integrações que usavam somente Chat Completions e Assistants e adotar o padrão da Responses API ambiente de computador nos casos que pedem execução real, armazenamento e automação. A página de deprecations destaca as datas oficiais, o que ajuda a programar janelas de migração, testes e cutover, reduzindo risco operacional.

Exemplos táticos de uso no dia a dia do time técnico

  • Integração de dados e relatórios: um agente baixa CSVs com curl, processa com awk, grava em SQLite local do container e exporta uma planilha final para um bucket. O compaction guarda o estado relevante entre rodadas, e a orquestração da Responses API controla paralelismo e limites de output.

  • DevEx e automação em CI: o shell tool roda testes, captura logs, gera um sumário e anexa artefatos para revisão. Com environment container_auto, o time evita gerenciar imagens e mantém consistência na pipeline, usando allowlists para domínios e binários permitidos.

  • Operações com sistemas legados: quando não há APIs disponíveis, o computer use automatiza passos no navegador para QA de aplicações ou entrada de dados entre portais, com mitigadores de risco recomendados pela OpenAI e supervisão humana em ambientes não browser.

  • Atendimento interno com RAG: o file search indexa políticas, manuais e runbooks. O agente planeja no shell, resolve dependências de bibliotecas locais, consulta a base e retorna trechos com referência, mantendo a janela de contexto limpa via compaction.

Boas práticas de segurança e conformidade

  • Sandboxing e minimização de privilégios: mesmo em containers hospedados, configure listas de permissão e registre atividades do shell para auditoria. Evite credenciais amplas no ambiente, prefira secrets de escopo mínimo e tokens de curta duração.

  • Aprovação humana para ações destrutivas: exija confirmação explícita antes de rodar scripts que alteram infraestrutura, escrevem em bancos de produção ou movimentam dados sensíveis, aproveitando flags de aprovação na sua implementação de shell_call_output.

  • Contexto eficiente e privacidade: use limites de saída por comando para evitar despejar logs inteiros no contexto. O compaction nativo ajuda a manter o histórico essencial com tokenização eficiente e representação criptografada, reduzindo exposição desnecessária.

  • Segregação de ambientes: escolha execução local quando políticas exigirem varredura por EDR, proxies corporativos e controles finos de rede. Use container_auto para acelerar protótipos e workloads determinísticos com menos dependências de infra.

Impacto estratégico para produtos e times de engenharia

Com a Responses API ambiente de computador, o papel do desenvolvedor muda de “colar comandos no prompt” para “especificar intenções, curar skills e governar execução”. O ganho de velocidade vem de três frentes: paralelismo de comandos, menor custo cognitivo para transferir estado entre passos e menos engenharia de cola para orquestração, timeouts e retries. Em equipes enxutas, isso libera tempo para trabalhar na lógica de negócio e na qualidade dos dados.

Do lado de produto, abre-se espaço para lançar recursos que antes pediam squads inteiras de automação e RPA. A combinação de shell, containers e compaction torna viável criar agentes que produzem artefatos duráveis, repetíveis e auditáveis, sem cair na armadilha de prompts gigantes ou scripts frágeis. Ferramentas como computer use e file search completam esse quadro quando o problema envolve web automation ou bases documentais extensas.

Considerações de performance, custo e DX

  • Performance: o streaming de saída do shell e o paralelismo reduzem a espera por etapas sequenciais. Bounded output impede que logs dominem a janela de contexto, o que preserva raciocínio do modelo nas partes relevantes.

  • Custo: mover parsing e transformação de dados para o shell em um container pode diminuir tokens gastos em raciocínio textual, desde que a lógica seja clara e a quantidade de comandos não exploda. File search e web search no Responses também podem reduzir repetição de contexto, embora exijam governança de uso.

  • DX: container_auto oferece caminho de menor atrito, enquanto execução local dá flexibilidade máxima. Mantendo uma biblioteca padronizada de skills, o time reusa blocos de automação com versionamento e promove consistência operacional.

Conclusão

Equipar a Responses API com ambiente de computador, shell e containers transforma a proposta de agentes, saindo do texto para execução real, com persistência, rede controlada e governança. O resultado é uma base técnica mais madura para automações reproduzíveis, com melhor controle de risco e capacidade de entregar valor em jornadas que misturam dados, serviços e produção de artefatos.

Para quem mantém produtos e plataformas internas, o passo seguinte é claro, mapear onde a sua equipe precisa de execução determinística, decidir entre container_auto e runtime local, adotar skills versionadas e estabelecer políticas de sandbox e aprovação. Com isso, o Responses API ambiente de computador deixa de ser promessa e vira rotina de entrega, apoiado por um ecossistema de tools em evolução, de file search a computer use.

Tags

OpenAIAgentic AIDevEx