Ilya Sutskever elogia OpenAI e Anthropic por postura segura
O cofundador da OpenAI, hoje à frente da SSI, comentou no X sobre a postura de segurança de OpenAI e Anthropic. Entenda o contexto, as mudanças recentes e o que isso sinaliza para a corrida pelos modelos de fronteira.
Danilo Gato
Autor
Introdução
Ilya Sutskever é a palavra‑chave central aqui. O cofundador da OpenAI, hoje à frente da Safe Superintelligence, tornou a segurança de IA o seu tema dominante. A menção pública de que OpenAI e Anthropic mantêm uma postura sólida em segurança reacende um debate maior, especialmente após mudanças recentes nas políticas internas do setor e pressões competitivas por lançamentos rápidos.
Elogios vindos de Ilya Sutskever importam porque a trajetória do pesquisador mistura liderança técnica de ponta, rupturas institucionais e a fundação de um novo laboratório com foco único em segurança. A leitura dos fatos mais recentes mostra um quadro menos binário do que parece, com avanços, recuos e ajustes finos na governança de risco em OpenAI e Anthropic.
O que mudou desde a saída de Sutskever da OpenAI
Em maio de 2024, Ilya Sutskever deixou a OpenAI após uma sequência de tensões internas sobre prioridades entre produto e segurança. Poucos dias depois, a equipe de longo prazo focada em superalinhamento, criada para mitigar riscos de AGI, foi dissolvida, com remanejamentos. Esses movimentos alimentaram críticas públicas de lideranças de segurança e marcaram uma transição na estratégia da empresa.
No curto prazo, a OpenAI manteve seu ritmo de lançamentos, mas a discussão sobre governança de riscos, reservas de compute e transparência de avaliações ficou mais intensa. O episódio serviu de gatilho para uma onda de escrutínio sobre a preparação da indústria para sistemas gerais, e para a imagem de Sutskever como uma voz que pressiona por salvaguardas mais robustas.
SSI, a aposta de Sutskever em foco único, segurança antes de tudo
Logo após sair da OpenAI, Sutskever fundou a Safe Superintelligence Inc., ao lado de Daniel Levy e Daniel Gross, com sede em Palo Alto e Tel Aviv. A proposta é singular, priorizar pesquisa em segurança e superinteligência sem as distrações de ciclos de produto e pressões comerciais de curto prazo. Essa estrutura organizacional se apresenta como antídoto para o trade‑off clássico entre velocidade e prudência.
A SSI angariou capital relevante, construiu uma equipe enxuta e altamente especializada e passou a comunicar um roteiro público centrado em segurança de sistemas mais capazes que humanos. Mesmo críticos reconhecem que a tese, focada em reduzir riscos de fronteira, coloca a segurança como produto principal. O próprio Sutskever tem defendido que sistemas superinteligentes serão menos previsíveis e mais agentivos, o que exige métodos mais rigorosos de avaliação.
![Ilya Sutskever e Sam Altman em painel na TAU, 2023]
Anthropic atualiza a política de escalonamento responsável, o que isso sinaliza
A Anthropic, que historicamente se apresenta como empresa de pesquisa e segurança, revisou sua Responsible Scaling Policy. Segundo a apuração do Time, a companhia removeu um compromisso central que a impediria de treinar sistemas sem garantias de segurança adequadas, substituindo por um enfoque mais transparente em roadmaps e relatórios de risco, com possibilidade de retardar desenvolvimento em cenários de alto risco. A justificativa mistura incertezas científicas e realidades competitivas, enquanto críticos alertam para riscos de erosão gradual de salvaguardas.
Há uma leitura pragmática nessa mudança, tornar a política mais exequível, baseada em avaliação contínua e documentação pública de ameaças e mitigadores. Porém, para equipes de compliance e governança, o recado é claro, a régua do que conta como barreira de segurança está em movimento e precisa de métricas operacionais, thresholds bem definidos e gatilhos de contenção antes do próximo salto de capacidade.
![Logomarca da Anthropic em versão vetorial rasterizada]
OpenAI, transparência e a pressão por sistema cards e testes perigosos
Outra frente crítica é a transparência. Reportagens destacaram, ao longo de 2025, tensões com a divulgação de system cards e resultados de avaliações de capacidades perigosas. Pesquisadores de segurança de diferentes laboratórios defenderam padrões mínimos de publicação antes de colocar modelos de fronteira em produção. Esse debate evidenciou que o setor tem práticas heterogêneas, com falhas de documentação em lançamentos de alto impacto.
Mesmo quando empresas como OpenAI e Google atrasam ou calibram a divulgação, o histórico de publicar relatórios para modelos de fronteira permanece uma referência. A ausência total de documentação em lançamentos concorrentes tem sido rotulada como imprudente por especialistas, e pressões regulatórias estaduais nos Estados Unidos começaram a apontar nessa direção. O resultado é um cenário em que a transparência pré‑implantação virou quesito competitivo e também de licença social para operar.

Onde o elogio de Ilya Sutskever se encaixa nesse tabuleiro
O elogio à OpenAI e Anthropic por uma postura firme de segurança precisa ser lido no contexto dos últimos dezoito meses. As duas empresas, apesar de críticas e ajustes, ainda sustentam rituais de segurança mais maduros do que iniciativas que recusam documentação ou negligenciam avaliações perigosas. Ao mesmo tempo, a revisão da política de escalonamento da Anthropic mostra que firmeza não significa imobilismo, e sim adaptação com prestação de contas.
Sutskever tem insistido que superinteligência implicará comportamentos qualitativamente novos, com maior agentividade e menor previsibilidade, o que exige investir em alinhamento, supervisão escalável e contenções de capacidade desde já. Quando uma figura com esse histórico reconhece a importância de linhas vermelhas e boas práticas em laboratórios líderes, o recado para o mercado é duplo, valorizar quem documenta e ajustar a régua quando a realidade técnica muda.
Aplicações práticas, o que times podem fazer agora
- Instituir gates de segurança vinculados a métricas, defina níveis de risco por classe de tarefa, por exemplo, bio, ciber, manipulação, e associe cada classe a checklists padronizados de mitigação. A política deve prever pausas condicionais quando métricas ultrapassarem thresholds. Isso aproxima a prática do que a Anthropic afirma perseguir com roadmaps e relatórios recorrentes.
- Exigir documentação mínima por release de modelo, um system card sucinto antes de pilotos e um relatório expandido antes de GA, cobrindo dados de treinamento em alto nível, técnicas de afinamento, avaliação de jailbreaks, e testes de capacidades perigosas, com resultados e lacunas conhecidas. Essa abordagem atende à demanda pública por transparência destacada por pesquisadores de segurança.
- Formalizar um comitê de risco com poder de veto temporal, inspirado em práticas de compliance regulado, com reuniões de go, no‑go e no‑go condicional. Registre atas, decisões e justificativas.
- Planejar contingências, incluindo kill switches operacionais, limitação de ferramentas e escopo de API, e capacidades degradadas por feature flag quando houver comportamento inesperado.
- Investir em avaliações independentes, convidando pesquisadores externos para red teaming direcionado nas áreas de maior risco sistêmico.
Essas medidas reduzem assimetrias de informação, fortalecem a licença social para operar e criam trilhos internos para equilibrar ambição técnica e responsabilidade pública.
Tendências e sinais, o que observar em 2026
- Consolidação de padrões mínimos de transparência, com maior pressão política por relatórios de segurança antes de deploys de fronteira. Alguns estados nos EUA já discutem requisitos normativos, e esse movimento tende a crescer se incidentes visíveis continuarem a acontecer.
- Políticas de escalonamento dinâmico, com laboratórios publicando roadmaps de risco e atualizando mitigações de forma iterativa, como a Anthropic comunicou recentemente. A controvérsia está em como calibrar, quando pausar, e como evitar adiar, indefinidamente, decisões duras.
- Especialização institucional, a SSI reforça o modelo de foco único em segurança e superinteligência, sem ciclos de produto. A existência de um player assim pressiona pares a demonstrar comprometimento proporcional em fronteira.
- Debate técnico sobre imprevisibilidade e agentividade, Sutskever e outros líderes seguem descrevendo propriedades emergentes que exigem novos paradigmas de teste e controle, menos ancorados só em preferências humanas e mais em avaliações de capacidades adversas.
Reflexões e insights
A leitura fria dos eventos de 2024 a 2026 sugere que segurança em IA está deixando de ser um apêndice de PR e se consolidando como disciplina operacional. Ilya Sutskever, figura polarizadora e altamente respeitada, ajudou a empurrar o setor nessa direção, primeiro dentro da OpenAI, depois ao fundar a SSI com missão singular. Quando ele aponta firmeza em OpenAI e Anthropic, o elogio recai menos em slogans e mais em práticas que, com falhas e atrasos, ainda criam documentos, rituais e thresholds que outras empresas optam por ignorar.
Para líderes de produto e pesquisa, o ponto vital é internalizar que firmeza não implica congelamento. Implica antecipar riscos, mensurar capacidades perigosas, publicar o suficiente para escrutínio, e aceitar pausas quando necessário. Políticas evoluem, como mostrou a Anthropic, mas a régua não pode baixar ao sabor do quarter. Métrica, documentação e veto temporal são os três alicerces que tornam a firmeza verificável.
Conclusão
A posição pública de Ilya Sutskever sobre a postura de segurança de OpenAI e Anthropic serve como termômetro do que conta, hoje, como responsabilidade em IA. Apesar de críticas e ajustes, ambas continuam no pelotão que publica, mede e debate seus próprios limites, o que não elimina falhas, mas aponta um caminho de transparência e aprendizado contínuo. Em paralelo, o avanço da SSI como laboratório de foco único reforça a ideia de que a segurança pode, sim, ser missão principal, não costura de última hora.
A corrida pelos modelos de fronteira continuará intensa em 2026. O mercado vai premiar quem sustentar velocidade com ritos de segurança verificáveis, documentação suficiente e coragem para pausar quando necessário. Esse é o significado prático de firmeza em segurança no estágio atual da inteligência artificial, e é assim que a indústria poderá construir confiança duradoura.
