Ilustração corporativa simbolizando governança de agentes de IA do desktop ao data center
Inteligência Artificial

NVIDIA e ServiceNow anunciam agentes autônomos de IA

Parceria amplia governança e eficiência para agentes autônomos, do desktop ao data center, com OpenShell, AI Control Tower e AI Factory, alinhando segurança, custo e performance

Danilo Gato

Danilo Gato

Autor

11 de maio de 2026
9 min de leitura

Introdução

Agentes autônomos de IA saem do laboratório e chegam ao trabalho real com a união de NVIDIA e ServiceNow, anunciada em 5 de maio de 2026 durante o Knowledge 2026. A parceria foca em governança, eficiência e segurança, conectando o desktop do colaborador à AI Factory no data center, um passo crucial para escalar agentes autônomos de IA em empresas.

A palavra-chave aqui é agentes autônomos de IA. Em vez de protótipos isolados, o anúncio traz componentes concretos, como o runtime seguro NVIDIA OpenShell, o ServiceNow AI Control Tower e a integração ao design validado da NVIDIA Enterprise AI Factory. Juntos, esses blocos prometem agentes que atuam com contexto empresarial, trilhas de auditoria e custos por token competitivos, reduzindo o atrito entre inovação e conformidade.

O que muda com a parceria NVIDIA e ServiceNow

A colaboração estende agentes autônomos por toda a pilha, do desktop ao data center. No palco do Knowledge 2026, Jensen Huang e Bill McDermott destacaram que o foco agora não é só gerar ou raciocinar, é agir com contexto e controle. O acordo integra habilidades de agentes, modelos abertos, execução segura e governança centralizada, fazendo os agentes conversarem com dados, processos e políticas já existentes no ServiceNow.

Três movimentos sustentam essa virada. Primeiro, o Project Arc, o agente autônomo de desktop da ServiceNow. Segundo, o OpenShell, camada de execução que cerca as ações do agente com sandbox, políticas e roteamento de inferência privado. Terceiro, a inclusão do AI Control Tower no design validado da NVIDIA Enterprise AI Factory, permitindo observabilidade e governança desde o endpoint até a infraestrutura de IA em larga escala.

![Agentes autônomos, do desktop ao data center]

Project Arc, exemplos práticos no desktop

Project Arc nasce como um agente autônomo de longa duração instalado no desktop, voltado a desenvolvedores, equipes de TI e administradores. Em termos práticos, Arc pode abrir terminais, manipular arquivos locais, interagir com aplicativos e executar tarefas multietapas, sempre vinculado às políticas de TI. Isso cobre casos como correção de incidentes em estações remotas, execução de scripts de remediação, preparação de ambientes de desenvolvimento e atualizações operacionais que, antes, exigiam intervenção manual extensa.

O diferencial não está só nas ações, está na governança ponta a ponta. Cada ação do Arc roda dentro do OpenShell, que aplica isolamento tipo navegador, registro detalhado de decisões de permitir ou negar, e políticas programáveis que definem o que o agente pode ver, onde pode executar e como pode usar a rede. O AI Control Tower monitora e audita cada leitura de arquivo, comando e chamada de API, criando um trilho de conformidade que os líderes de segurança podem inspecionar e aprovar.

OpenShell, segurança e privacidade por padrão

OpenShell posiciona-se como o runtime de referência para agentes autônomos. A premissa é simples e potente, reduzir a superfície de risco sem amputar a autonomia do agente. Em vez de confiar no autocontrole do modelo, a execução acontece em sandboxes programáveis, com verificação granular de permissões, trilhas de auditoria forense e um roteador de inferência privado que mantém contexto sensível no dispositivo e só encaminha para modelos externos quando as regras de custo e privacidade autorizam.

Esse design atende uma exigência recorrente nas empresas, a pergunta deixou de ser se o agente consegue, e passou a ser se o agente pode. Ao amarrar cada ação a políticas explícitas, equipes de segurança ganham um mecanismo para aprovar mudanças, bloquear binários não verificados e controlar chamadas de rede, sem impedir que o agente aprenda novas habilidades ou instale pacotes quando isso estiver permitido. Em operação, é o tipo de arquitetura que reduz incidentes e acelera homologação.

AI Control Tower e AI Factory, governança de ponta a ponta

Conectar o AI Control Tower ao design validado da Enterprise AI Factory entrega uma camada única de governança para cargas de trabalho de modelos e agentes em grande escala. Na prática, a organização descobre seu inventário de modelos e agentes, observa comportamento em tempo real, aplica controles de risco e regulações, e mede valor e custo, inclusive com conteúdo regulatório ampliado e mapas de acesso por provedores de nuvem. Isso diminui o fosso entre o que a TI precisa controlar e o que as áreas de negócio querem acelerar.

Para quem gerencia operações complexas, essa integração fecha o ciclo do endpoint à infraestrutura. O mesmo painel que governa o que o agente faz no desktop enxerga o que acontece no cluster Blackwell no data center, permitindo observar latência, custo, gargalos de agentes e aderência a políticas, além de automatizar remediações quando necessário. É o tipo de alinhamento que transforma pilotos pontuais em operações estáveis.

![Governança centralizada para agentes e modelos]

Eficiência, tokenomics e a arquitetura Blackwell

Agentes autônomos sempre ligados exigem eficiência de ponta a ponta, do aproveitamento por watt à redução do custo por milhão de tokens. Segundo a NVIDIA, a plataforma Blackwell entrega ganhos de throughput por megawatt que mudam a conta do ROI em inferência, com reduções expressivas de custo por token quando comparada à geração Hopper. Esses números, somados a melhorias de software como decodificação especulativa e orquestração de MoE, estabelecem a base econômica para escalar agentes em milhões de fluxos de trabalho.

Para o time financeiro, essa curva de eficiência se traduz em metas tangíveis. Menor custo por token, maior produção de tokens por megawatt e aproveitamento superior em cargas de raciocínio longo reduzem o custo marginal de automação e ampliam a fronteira de casos viáveis. Em comunicações recentes, a NVIDIA também relaciona Blackwell a reduções de custo por token em dois dígitos, reforçando o argumento de que a infraestrutura certa paga o investimento com ganho de produtividade de agentes em escala.

Benchmarks realistas, do EnterpriseOps-Gym ao NOWAI-Bench

Métricas importam, mas benchmarks genéricos escondem o desafio real dos fluxos corporativos multietapas. O NOWAI-Bench, iniciativa conjunta que inclui o EnterpriseOps-Gym e o EVA-Bench, ataca o problema com avaliações em ambientes containerizados, 1.150 tarefas curadas e verificação de resultado via SQL. O foco é raciocínio de longo horizonte, estado persistente e respeito a políticas, exatamente onde agentes tendem a tropeçar.

Resultados iniciais do EnterpriseOps-Gym mostram que até modelos de ponta ainda falham com frequência em cenários longos e governados, e que fornecer planos humanos de referência eleva a taxa de sucesso, isolando a lacuna de planejamento estratégico. Para líderes técnicos, esses dados orientam trilhas de melhoria prática, desde engenharia de prompts e decomposição de tarefas até a escolha de habilidades do agente e avaliações automáticas integradas à esteira de MLOps.

Habilidades de agente, modelos abertos e o Blueprint AI-Q

A parceria avança um ecossistema aberto de habilidades e modelos. O NVIDIA Agent Toolkit, a família Nemotron aberta, e o Blueprint AI-Q dão aos times blocos prontos para criar agentes especializados e auditáveis, com orquestração baseada em LangGraph, avaliação embutida e suporte a implantações locais, híbridas ou em nuvem. Para o gestor, isso significa menos lock-in e mais capacidade de adaptar o agente ao domínio e aos dados proprietários.

Casos práticos ganham tração quando a arquitetura combina RAG, habilidades de pesquisa profunda com citações e módulos de avaliação. Em operações, agentes podem monitorar filas de tickets e executar remediações, em engenharia de software podem acelerar investigações de bugs e preparar PRs, e em atendimento podem cruzar políticas de compliance com dados de produto antes de tomar ações, tudo com trilhas de auditoria ativas.

Como aplicar na sua empresa, roteiro recomendado

  • Comece no desktop com casos controláveis. Use o Project Arc em modo early preview para fluxos repetitivos e de alto impacto, como remediação básica de endpoint, coleta de logs e preparação de ambientes. Garanta políticas estritas no OpenShell, com permissão explícita para binários, caminhos e chamadas de rede.
  • Conecte contexto de negócios. Acople o agente ao Action Fabric e ao CMDB para que cada decisão seja informada pelo histórico operacional, catálogos de serviços e relacionamentos entre ativos. A qualidade da ação melhora quando o agente enxerga o sistema de registro.
  • Suba para a AI Factory com governança. Ao integrar AI Control Tower ao design validado da Enterprise AI Factory, estenda observabilidade, custo e risco ao nível de cluster. Defina métricas de tokenomics, alvos de latência e limites de custo por caso de uso, medindo ROI mês a mês.
  • Avalie com benchmarks corretos. Incorpore EnterpriseOps-Gym e NOWAI-Bench na esteira de liberação de agentes. Monitore sucesso por domínio, segurança de recusa e regressões em cenários longos. Use resultados para decidir onde investir em habilidades e modelos.

Riscos, limites e como mitigá-los

  • Drift de política e sombra de automação. Agentes que evoluem habilidades podem divergir de controles se as políticas não acompanharem. Mitigue com o mecanismo de políticas granulares do OpenShell e com auditoria contínua no AI Control Tower.
  • Custos invisíveis em raciocínio longo. Mesmo com Blackwell, investigações extensas podem inflar gasto por tarefa. Controle profundidade com orquestração no Blueprint AI-Q e metas explícitas de tokens por tarefa e por domínio.
  • Fragilidade em fluxos multietapas. Benchmarks mostram lacunas em planejamento de longo prazo. Mitigue com decomposição de planos, ferramentas verídicas, e avaliações automatizadas antes de promover agentes a produção.

Conclusão

A união de NVIDIA e ServiceNow sinaliza a maturidade dos agentes autônomos de IA para empresas. Com Project Arc, OpenShell, AI Control Tower e a Enterprise AI Factory, o mercado ganha uma trilha clara para colocar agentes para agir com contexto, trilhas de auditoria e eficiência econômica alinhada ao que o CFO espera ver no P&L. A arquitetura fecha o ciclo entre onde o agente executa e onde a IA roda, reduzindo atrito entre segurança, operações e velocidade de entrega.

Os próximos 12 meses devem separar experimentos de operações reais. Organizações que combinarem governança desde o primeiro dia, eficiência por token e benchmarks orientados a workflows terão condições de escalar agentes autônomos de IA com previsibilidade. A janela está aberta, e a infraestrutura, as políticas e os testes necessários já estão sobre a mesa.

Tags

agentes de IAgovernança de IAAI Factory