Mira Murati diz ao tribunal que não confiava nas palavras de Sam Altman
Depoimento de Mira Murati no caso Musk v. OpenAI expõe dúvidas internas sobre a liderança de Sam Altman e reacende o debate sobre governança, transparência e segurança na corrida da IA.
Danilo Gato
Autor
Introdução
Mira Murati, ex-CTO da OpenAI, declarou em tribunal que não podia confiar nas palavras de Sam Altman. A afirmação veio à tona durante a segunda semana do julgamento de Elon Musk contra OpenAI e seus executivos, em Oakland, na Califórnia, e foi reportada por agências e veículos como Reuters e Forbes. O ponto central do depoimento, a confiança abalada na liderança, coloca a governança corporativa da IA em evidência num momento de escrutínio público sem precedentes.
A relevância do tema vai além do noticiário. Quando a palavra-chave é Mira Murati OpenAI, o que está em jogo é a credibilidade de processos que orientam decisões sobre desenvolvimento, segurança e liberação de modelos avançados. Num setor onde ciclos de produto são acelerados, a transparência das lideranças se torna um ativo estratégico, não apenas uma virtude moral.
O que exatamente Murati disse, e por que isso importa
O depoimento de Mira Murati descreveu um ambiente de desconfiança e caos, em que, segundo ela, Altman dizia uma coisa a uma pessoa e o oposto a outra. Em sua fala gravada e exibida no tribunal de Oakland, Murati afirmou que Altman, em momentos, foi enganoso com ela e com outros líderes. Esse relato não surgiu no vácuo, ele se conecta à crise de novembro de 2023, quando o conselho removeu Altman e, horas depois, nomeou a própria Murati como CEO interina.
Relatos adicionais publicados na véspera do depoimento apontam que Murati descreveu um estilo de liderança que, em sua visão, a teria minado no papel de CTO e que teria colocado executivos uns contra os outros, o que explicaria parte da desorganização. Em perguntas diretas sobre honestidade, a resposta registrada foi “nem sempre”. Esses trechos apareceram em cobertura da Forbes e em resumos monitorados por agregadores como o Techmeme, que destacaram a gravidade da desconfiança no topo da empresa.
Do ponto de vista prático, depoimentos desse tipo são combustíveis para mudanças em controles internos. Quando executivos relatam mensagens contraditórias sobre revisão de segurança ou governança de lançamentos, conselhos e comitês de risco tendem a exigir gates mais objetivos, logs de decisão auditáveis e linhas claras de responsabilização. É o tipo de ajuste que, em empresas de IA, reduz ruído em situações críticas, por exemplo, quando equipes de políticas de lançamento pedem mais tempo de avaliação para um novo modelo.
![Federal Building em Oakland, onde ocorrem sessões do tribunal federal]
O que está em disputa no caso Musk v. OpenAI
O processo, iniciado em 2024 e que entrou em fase de julgamento no final de abril de 2026, ataca a transformação da OpenAI de uma entidade sem fins lucrativos para uma estrutura com braço comercial, com acusações de infração de missão, enriquecimento indevido e quebra de confiança. A defesa contesta que jamais houve promessa de manter a organização exclusivamente sem fins lucrativos e ressalta que a mudança visava viabilizar capital e computação necessários para competir com rivais.
A primeira semana foi dominada pelo próprio testemunho de Musk, com choques com advogados e com a juíza, e foco na narrativa de que a OpenAI teria se desviado de seus objetivos iniciais. A cobertura de Washington Post, AP e outros veículos descreveu um embate personalista, mas juridicamente ancorado em documentos sobre estrutura e promessas feitas entre 2015 e 2019.
O pano de fundo tem implicações industriais, já que a OpenAI é avaliada na casa de centenas de bilhões de dólares e discute opções estratégicas que incluem abertura de capital ainda em 2026. Ainda que um IPO dependa de mercado, governança e clima regulatório, o resultado do julgamento pode influenciar prazos, acordos de parceria e exigências de disclosure.
Linha do tempo essencial, para entender o contexto
- Novembro de 2023, o conselho remove Altman, nomeia Murati como CEO interina, e o caso se transforma num impasse de governança que termina com o retorno de Altman dias depois e reconfiguração do board. Esse episódio plantou as sementes de muitas das dúvidas que hoje ressurgem nos depoimentos.
- Abril de 2026, começam seleção do júri e depoimentos. As primeiras sessões concentram-se em reconstruir a relação entre os fundadores, a evolução organizacional e supostos acordos sobre missão e abertura.
- Final de abril e início de maio de 2026, Elon Musk presta depoimento por três dias, é questionado sobre contribuições financeiras, visão sobre segurança e tentativas de acordo, enquanto a defesa investe em mostrar inconsistências e motivações concorrenciais.
- Maio de 2026, depoimento de Murati é exibido em vídeo, destacando desconfiança e contradições atribuídas a Altman, reforçando que a crise de 2023 não foi um raio em céu azul.
Essa cronologia ajuda a separar ruído de fatos públicos e datados. Em governança, a data importa, porque o que se sabia oficialmente em novembro de 2023, e o que veio depois com documentos e depoimentos, define se houve falhas sistêmicas ou apenas fricções inerentes a uma empresa em hiperescala.
Como a fala de Murati pressiona a governança de IA
Depoimentos que questionam a franqueza de um CEO pressionam conselhos a reforçar mecanismos de checagem. Em IA, onde riscos operacionais e reputacionais se entrelaçam, boas práticas incluem: comitês independentes de segurança com mandato vinculante em lançamentos, relatórios de risco model-by-model e trilhas de auditoria para exceções. A experiência recente de grandes modelos, com pressões de mercado e competição por talento, torna esses controles pragmáticos, não teóricos.
O testemunho de Murati se conecta a relatos de 2023 sobre perda de confiança do conselho e a tensões internas sobre ritmo de lançamento e checagens de segurança. Em um quadro assim, cada decisão crítica exige evidência verificável e comunicação consistente, do CTO ao jurídico e ao board. Quando a comunicação falha, a empresa paga duas vezes, no tribunal da opinião pública e no de justiça.
A versão da OpenAI e os embates com Musk

A estratégia da OpenAI na corte combina contestar o mérito das alegações de Musk e expor contradições em sua narrativa. Relatos jornalísticos mostram que, ao longo do contra-interrogatório, advogados da empresa recorreram a e-mails, documentos e postagens para pressionar o bilionário a admitir recuos e imprecisões. Também veio a público, por meio de petições, que houve discussões de possível acordo pouco antes do início do julgamento, o que contrasta com o tom de confronto visto em audiência.
Do lado de Musk, a ênfase está em uma suposta quebra de promessa fundacional, no dano reputacional associado a uma guinada comercial e em riscos de concentração de poder em um único fornecedor de IA. Mesmo assim, decisões judiciais costumam se ater a provas específicas e instrumentos legais, não a grand narratives, e a defesa insiste que não houve compromisso perpétuo com um modelo sem fins lucrativos.
O que o mercado deve observar nas próximas semanas
- Convergência entre relatos. Com a exibição do depoimento de Murati e possíveis novas testemunhas, atenção para a consistência entre narrativas de executivos sobre processos de revisão de segurança, escalonamento de decisões e envolvimento do board.
- Sinais de reconfiguração de governança. Ajustes em comitês de risco, papéis de segurança e fluxos de aprovação tendem a aparecer, mesmo sem admissão pública de falhas. Isso é típico quando litígios expõem arestas de processo.
- Parcerias estratégicas e captação. Uma decisão desfavorável poderia redesenhar fluxos de receita e acordos com parceiros grandes, inclusive pacotes de créditos de nuvem. Uma decisão favorável tende a restaurar previsibilidade e a fortalecer o roadmap de produto no curto prazo.
Caso, cultura e velocidade: o trade-off que ninguém pode ignorar
O setor convive com o dilema entre velocidade de lançamento e robustez de segurança. Depoimentos como o de Murati tornam explícito que a falta de confiança interna custa caro. A boa notícia, para quem constrói produtos, é que não é preciso escolher entre inovar e auditar. Frameworks de rollout escalonado com checkpoints técnicos e gerenciais criam amortecedores de risco sem paralisia. O essencial é que as pessoas certas tenham autoridade real para vetar quando necessário, com documentação defensável.
![Sam Altman em evento público, imagem de arquivo]
Aplicações práticas para líderes de produto e times de IA
- Gate de segurança com SLA. Defina janelas de avaliação proporcionais ao risco do modelo. Para modelos de uso amplo, um SLA de revisão que inclua red teaming, análise de alucinações e checagens de abuso reduz surpresas pós-lançamento.
- Registro de decisão e divergência. Em cada marco de release, registre quem aprovou o quê, com base em quais evidências. Divergências devem ser documentadas e resolvidas por instâncias claras, como comitê de risco com voto registrado.
- Comunicação unívoca. Uma das críticas a Altman nos depoimentos foi a mensagem contraditória a públicos diferentes. Em produto, isso se traduz em um único documento fonte da verdade, com status, riscos, exceções e owners.
- Auditoria de processo antes de auditoria de código. Muitas crises de confiança não surgem de bugs, e sim de processos mal definidos. Estresse o playbook de go-to-market tanto quanto o pipeline de ML.
Como essa história conversa com precedentes e regulações
A experiência recente mostra que, quando litígios alcançam CEOs e decisões de conselho, o efeito colateral atinge o desenho de accountability. No caso OpenAI, a soma de depoimentos, inclusive o de Musk, ampliou o foco da corte para além da técnica, alcançando intenção, promessa e benefício público. A cobertura da AP, do Washington Post e de outros veículos delimita esse campo e ajuda a acompanhar marcos factuais, como datas de audiência, escopo das alegações e encaminhamentos da juíza Yvonne Gonzalez Rogers.
Para empresas que operam nos Estados Unidos, a mensagem é clara, principalmente com legislações estaduais e federais de privacidade e segurança digital evoluindo. Práticas de governança que eram opcionais em 2021 tornaram-se quase mandatórias em 2026, se a ambição é escalar com parceiros, investidores e clientes enterprise atentos a risco.
Reflexões finais
- O caso Musk v. OpenAI não é apenas uma batalha de fundadores, é um protocolo público de como empresas de IA serão chamadas a explicar suas escolhas. Depoimentos como o de Mira Murati são lembretes de que confiança não é uma palavra, é um sistema de práticas verificáveis.
- Executivos podem divergir sobre velocidade, modelo de negócio e até visão de futuro. O que não pode faltar é um mecanismo institucional que tolere desacordo sem cair em contradição interna, principalmente quando produtos tocam milhões de usuários.
Conclusão
O depoimento de Mira Murati, afirmando que não podia confiar nas palavras de Sam Altman, recoloca a governança no centro da estratégia de IA. Ele se soma a uma sequência de eventos desde 2023 que expuseram fragilidades de comunicação e processo, e que agora são escrutinados em tribunal, com potencial de gerar ajustes pragmáticos em controles internos e prestação de contas.
Independentemente do veredito, a mensagem para líderes de tecnologia é direta, confiança se constrói com trilhas de decisão, responsabilidades claras e transparência consistente. Onde falta coerência, sobra litigância. Onde o processo é sólido, a inovação encontra caminho sustentável, mesmo sob as luzes do tribunal.
