Anthropic mede autonomia de Claude, sessões longas e autoaprovação
Estudo da Anthropic revela que o agente Claude opera por mais tempo sem intervenção e que usuários experientes ativam mais autoaprovação, enquanto mantêm supervisão ativa com interrupções quando necessário.
Danilo Gato
Autor
Introdução
A autonomia de agentes de IA está saindo do laboratório e entrando no uso real, com impacto direto em produtividade, risco e governança. A palavra chave aqui é autonomia de agentes de IA, medida em dados concretos pela Anthropic em 18 de fevereiro de 2026, a partir de milhões de interações envolvendo o Claude Code e a API pública. O resultado central, sessões mais longas sem intervenção e mais autoaprovação entre usuários experientes, muda o debate sobre como projetar supervisão efetiva.
O estudo responde perguntas objetivas, quanto tempo os agentes rodam sozinhos, quando as pessoas interrompem, em quais domínios eles atuam e quão arriscadas são as ações. A partir desses achados, emergem diretrizes práticas para desenvolvedores de modelos, equipes de produto e formuladores de políticas, com ênfase em monitoramento pós-implantação e novos padrões de interação humano IA.
O que a Anthropic mediu e por que isso importa
A Anthropic analisou duas fontes complementares, o tráfego de uso agentic na API pública e os fluxos completos de trabalho do Claude Code, seu agente de programação. Na API, a leitura é ampla, ação a ação. No Claude Code, a leitura é profunda, sessão a sessão. O desenho privilegia métricas que funcionam no mundo real, como duração de turnos e taxas de autoaprovação, em vez de abstrações difíceis de mapear para a prática.
Esse foco no uso real é o diferencial. Avaliações de capacidade, como a do METR sobre completar tarefas longas, estimam o que um modelo consegue fazer em cenário ideal, sem interação humana nem consequências imediatas. Já a medição da Anthropic captura o que de fato acontece quando humanos e agentes trabalham juntos, com pausas, aprovações e interrupções. As duas lentes se complementam e mostram um descompasso entre o que os modelos podem suportar e a latitude que recebem hoje.
Métricas de autonomia no Claude Code, o que mudou nos últimos meses
A pergunta direta, quanto tempo um agente opera sem envolvimento humano, ganha uma resposta mensurável pelo Claude Code. A mediana dos turnos permanece curta, cerca de 45 segundos, mas o que chama atenção está na cauda de uso mais intenso. Entre outubro de 2025 e janeiro de 2026, o 99,9º percentil de duração por turno praticamente dobrou, de menos de 25 minutos para mais de 45 minutos. O crescimento foi contínuo, sem saltos associados a lançamentos de modelos, o que sugere fatores como aumento de confiança de power users, tarefas mais ambiciosas e melhorias de produto.
Esse alongamento na cauda indica uma sobrecapacidade de implantação, os modelos suportam mais autonomia do que exercem na prática. Em uso interno, a Anthropic também observou melhora simultânea, a taxa de sucesso em tarefas mais difíceis dobrou e as intervenções humanas médias por sessão caíram de 5,4 para 3,3 entre agosto e dezembro. O recado é claro, conforme equipes aprendem a trabalhar com o agente, autonomia e utilidade crescem juntas.
![Conceito visual de inteligência artificial, ideal para ilustrar autonomia]
Autoaprovação cresce com experiência, mas interrupções também
Um ponto que costuma gerar mal entendidos, dar mais autonomia não significa abrir mão de supervisão. A Anthropic encontrou um padrão consistente, usuários novos aplicam autoaprovação total em cerca de 20 por cento das sessões, enquanto usuários com mais tempo de casa passam de 40 por cento. Em paralelo, a taxa de interrupções por turno também sobe com a experiência, de aproximadamente 5 por cento para 9 por cento. A leitura prática, usuários maduros mudam de aprovar cada passo para monitorar ativamente e intervir quando importa.
No tráfego da API pública a tendência rima, ações ligadas a tarefas mais complexas exibem menos envolvimento humano explícito do que tarefas mínimas. Há duas explicações plausíveis, aprovar passo a passo fica inviável conforme a quantidade de etapas cresce e tarefas mais complexas tendem a vir de usuários experientes, que já preferem estratégias de supervisão por monitoramento e intervenção. Para times de produto, isso pede interfaces que facilitem ver, entender e redirecionar o agente com um clique.
![Logotipo do Claude, agente medido no estudo da Anthropic]
Pausas para esclarecimento, quando o próprio agente limita sua autonomia
Supervisão não é só humana. O Claude Code se mostra proativo ao pausar para pedir esclarecimentos quando a tarefa fica ambígua ou complexa. À medida que a complexidade aumenta, o agente faz perguntas com mais frequência, chegando a mais que o dobro do observado em tarefas mínimas, e em cenários difíceis pergunta mais do que os humanos interrompem. Isso sugere algum grau de calibragem de incerteza, um traço desejável de segurança quando combinado com fluxos de aprovação e visibilidade do que o agente está fazendo.
Importa manter a cautela, pausar na hora errada ainda é possível e features de produto influenciam o comportamento, como modos de planejamento. Mesmo assim, o padrão reforça uma tese central, autonomia efetiva é co construída por modelo, usuário e design de produto. Engenheiros podem treinar o agente para sinalizar dúvidas cedo, designers podem criar pontos de intervenção úteis e os usuários, com experiência, ajustam quando e como interferem.
Onde agentes estão sendo usados e quais riscos aparecem
No recorte da API pública, a maioria das ações é de baixo risco e reversível. Engenharia de software responde por quase metade da atividade agentic, com usos emergentes em saúde, finanças e cibersegurança. O estudo da Anthropic estima risco e autonomia em escala de 1 a 10 por chamada de ferramenta e agrupa por similaridade, o que permite enxergar clusters nas extremidades, alto risco ou alta autonomia, sem confundir casos raros com tendências gerais. Para líderes técnicos, isso orienta prioridades de monitoramento e approval gates por domínio e tipo de ação.
Esse retrato contrasta com avaliações externas de tempo de tarefa. O METR mostra que o horizonte de tarefas que agentes conseguem completar com 50 por cento de sucesso tem dobrado em ritmo rápido nos últimos anos e discute como isso se conecta ao impacto no mundo real. Ainda assim, números de benchmarks não se traduzem diretamente em minutos contínuos de execução sem humanos, porque em produção o agente pergunta, espera e sofre interrupções. A convergência das duas linhas, porém, sinaliza que a demanda de supervisão migrará de aprovações micro para monitoramento macro.
Implicações práticas para times de engenharia e produto
- Instrumente o agente para incerteza. Treinar o modelo para reconhecer quando deve perguntar e como apresentar escolhas reduz o risco e poupa tempo do usuário, principalmente em tarefas com requisitos incompletos. O estudo mostra que, em tarefas complexas, o Claude pergunta mais do que os humanos interrompem, um indício de que esse comportamento deve ser incentivado.
- Projete supervisão pelo monitoramento. Interfaces que exibem o plano atual, ações pendentes e um botão de pausar ou redirecionar viabilizam a estratégia que usuários experientes já adotam, mais autoaprovação na rotina e intervenção quando algo desvia.
- Priorize telemetria pós implantação. Avaliações antes do lançamento não capturam a dinâmica real entre produto, usuário e modelo. Coletar métricas de autonomia por domínio, complexidade e resultado é a base para calibrar limites e habilitar novos graus de independência com segurança.
- Ajuste os defaults. Se o padrão inicial exigir aprovação por ação, espere que novatos revisem cada passo. Dê caminhos simples para configurar autoaprovação com checkpoints, alinhando a supervisão ao nível de confiança e ao risco da tarefa.
- Separe governança por tipo de risco. Em software, resultados são testáveis e reversíveis. Em saúde ou finanças, verificação exige expertise similar à produção, o que demanda mais limites, logs e aprovações de etapa.
Recomendações para políticas e conformidade
- Evite prescrever padrões rígidos de interação, como obrigar aprovação humana em cada ação. A evidência indica que usuários experientes migram para monitoramento com interrupções pontuais, sem abandonar a responsabilidade. Políticas devem avaliar se humanos estão em posição de intervir, em vez de exigir cliques de aprovação que adicionam atrito sem ganho claro de segurança.
- Incentive infraestrutura de medição. A Anthropic destaca lacunas, como a dificuldade em vincular chamadas independentes da API em sessões coerentes, e chama a indústria para colaborar em métodos com preservação de privacidade. Reguladores podem estimular padrões de logging, observabilidade e auditoria pensados para agentes.
- Promova avaliações complementares. Combine horizontes de tarefa vindos de benchmarks externos com telemetria de uso real para calibrar liberação de autonomia por caso de uso, em especial quando o risco cresce mais rápido que a capacidade de reversão.
Como aplicar amanhã, um playbook enxuto
- Comece com um mapa de risco. Classifique fluxos por reversibilidade, impacto potencial e exigência regulatória. Em fluxos de baixo risco, libere autoaprovação com guard rails e logging. Em fluxos de alto risco, mantenha gate humano e crie pontos de pausa obrigatórios do agente.
- Modele a experiência do usuário para o estado real, não para o ideal. Se a cauda longa das sessões já se aproxima de 45 minutos por turno em usos ambiciosos, sua interface precisa suportar sessões prolongadas, com visão de progresso, histórico navegável, diff de alterações e botões de correção rápida.
- Ensine o agente a perguntar bem. Forneça prompts de clarificação e padrões de decisão entre opções, registrando o porquê das escolhas. Isso facilita auditorias e melhora a confiança do usuário.
- Feche o ciclo com métricas que importam. Acompanhe taxa de sucesso por tipo de tarefa difícil, tempo até intervenção, motivos de interrupção e perguntas por complexidade. Use esses dados para ajustar tanto o modelo quanto o produto.
Reflexões finais
A evidência coloca a autonomia de agentes de IA em um terreno mais sóbrio. Na prática, humanos não desaparecem do loop, mudam sua forma de presença. Em vez de um vai ou racha entre autonomia total e microgerenciamento, o padrão que emerge é uma cooperação dinâmica onde o agente sabe parar e o humano sabe quando retomar o volante. Para quem constrói produtos, isso pede menos checkboxes por ação e mais instrumentos de visibilidade e intervenção com contexto.
Também aponta um compromisso de médio prazo, aproximar a autonomia concedida do potencial identificado em benchmarks, sem sacrificar segurança. O caminho passa por telemetria, treinamento para incerteza, design para monitoramento e políticas que foquem resultados e capacidade real de intervenção. Quando esses pilares amadurecem juntos, o ganho de produtividade deixa de ser episódico e vira sistema.
Conclusão
Medir autonomia de agentes em produção muda a conversa do que é possível para o que é praticável. No Claude Code, sessões mais longas e mais autoaprovação com experiência foram acompanhadas de supervisão ativa, via interrupções e perguntas do próprio agente. Essa combinação, treinamento, produto e aprendizado do usuário, define o quanto de independência faz sentido em cada contexto.
O avanço rápido nos horizontes de tarefa medidos por benchmarks externos é um farol, não um piloto automático. Unir essas métricas com observabilidade pós implantação, controles por risco e design centrado em intervenção humana cria o ambiente certo para escalar autonomia com responsabilidade. É assim que a autonomia de agentes de IA sai do hype e se torna alavanca confiável de resultado.
