Sam Altman diz que anúncios da Anthropic são 'desonestos'
Discussão pública esquenta após campanha da Anthropic destacar que Claude não terá anúncios, enquanto a OpenAI testa publicidade no ChatGPT com princípios de segurança e separação
Danilo Gato
Autor
Introdução
A palavra chave aqui é anúncios da Anthropic, porque a discussão pública não é apenas sobre criatividade de campanha, é sobre confiança no produto de IA que milhões usam diariamente. Em 4 de fevereiro de 2026, Sam Altman criticou abertamente no X os comerciais da Anthropic e os chamou de desonestos, em resposta a peças que provocam o ChatGPT pela introdução de anúncios. As peças farão parte de uma investida no Super Bowl, com um spot no jogo e outro no pré jogo.
A Anthropic, por sua vez, fixou posição, nada de publicidade no Claude. Em notas à imprensa e reportagens, a empresa reforçou que anúncios em conversas seriam incompatíveis com a proposta do assistente, enquanto a OpenAI já havia anunciado em 16 de janeiro de 2026 princípios para testar anúncios, com rotulagem clara, sem influenciar respostas e sem venda de dados.
O que aconteceu, do jeito que importa
Altman foi direto, classificou os vídeos como engraçados, porém desonestos, e disse que a OpenAI não pretende exibir anúncios no formato paródico mostrado nos filmes da Anthropic. O post viralizou porque a campanha da rival implica que a OpenAI misturaria publicidade com aconselhamento em contextos sensíveis, algo que a OpenAI diz não fazer e que contradiz suas diretrizes publicadas.
Os comerciais da Anthropic trazem dois exemplos que pegaram, um treinador que desvia a conversa para vender palmilhas para short kings, e um setting de terapia que faz alusão a inserções publicitárias em momentos íntimos. A assinatura bate na tecla central, ads are coming to AI, but not to Claude. A compra de mídia inclui um filme de 30 segundos durante o jogo e outro de 1 minuto no pré jogo.
A OpenAI, antes do embate público, já havia descrito como pretende testar anúncios, começando por rodapés de respostas, com rótulo de patrocínio, segmentação limitada e sem uso de conversas para anunciantes. O texto, publicado em 16 de janeiro de 2026, também detalha que Plus, Pro, Business e Enterprise não terão ads. Esse é o ponto que Altman usa para dizer que os filmes da Anthropic criam um espantalho, um cenário que a OpenAI não pratica.
![Sam Altman em conferência]
O que os anúncios da Anthropic realmente dizem
Peças criativas eficazes cristalizam medos difusos. Aqui, a mensagem é simples, conversar com IA é íntimo, portanto inserir anúncios nesse contexto soa invasivo. O timing amplifica a narrativa, porque o teste de anúncios do ChatGPT virou notícia em janeiro, e críticas sobre sugestões promocionais semelhantes a ads geraram barulho no mês seguinte. Em paralelo, a Anthropic crava que não seguirá por esse caminho.
O detalhe essencial, porém, é operacional. A Anthropic sugere que o rival embaralhará respostas com mensagens patrocinadas, enquanto a documentação pública da OpenAI descreve o oposto, anúncios separados, rotulados, sem interferir no conteúdo orgânico. É por isso que o contra ataque de Altman bate na tecla desonesto.
O que a OpenAI prometeu sobre anúncios, ponto a ponto
As diretrizes publicadas em 16 de janeiro de 2026 deixam cinco pilares. Independência de resposta, anúncios não influenciam o que o ChatGPT responde. Privacidade de conversa, dados de chat não são vendidos a anunciantes. Escolha e controle, com opções de desligar personalização e de não ver anúncios em planos pagos. Alinhamento de missão, modelo de publicidade a serviço de acesso mais amplo. Valor de longo prazo, experiência do usuário acima de receita de curto prazo.
Além disso, o experimento começa pequeno, adultos logados nos Estados Unidos, e o formato descrito é de anúncios no final da resposta, não em meio ao parágrafo, com inelegibilidade perto de tópicos sensíveis como saúde ou política. O contraste com a caricatura dos filmes é claro, que mostram a resposta sendo interrompida por promoções intrusivas.
Por que isso importa para usuários de IA
Quando a conversa envolve tomada de decisão, saúde, finanças, carreira, a expectativa de independência editorial do assistente é alta. Se a publicidade for mal implementada, a confiança cai e o uso em tarefas críticas se retrai. Se for bem implementada, com rótulo explícito e separação total, pode financiar acesso gratuito sem degradar a utilidade, algo que a OpenAI argumenta ao justificar os testes. A Anthropic aposta que abrir mão de ads reforça a promessa de imparcialidade do Claude. Ambas as estratégias são válidas, a avaliação real virá da experiência entregue, não apenas da mensagem de marketing.
Do lado da percepção pública, o palco do Super Bowl amplia qualquer narrativa. A audiência do evento no ano passado passou de 127 milhões de pessoas segundo a Nielsen, e as previsões indicavam novo recorde para 2026, o que torna o investimento da Anthropic uma jogada de alcance massivo.
O que isso muda para marcas e publishers
Para marcas, a discussão cria dois caminhos táticos. Um, patrocínios e experiências em IA que respeitam critérios de utilidade e contexto, como ofertas acionáveis ao fim de uma resposta quando o usuário já manifestou intenção. Dois, integrações não pagas, como apps e plug ins úteis, que podem ser recomendados sem transação publicitária direta, reduzindo ruído de incentivos. A primeira via se alinha às diretrizes divulgadas pela OpenAI, a segunda conversa com a posição da Anthropic. O teste real é medir se a inserção aumenta satisfação ou atrito.
Para publishers, uma camada de anúncios em IA pode abrir nova fonte de demanda, mas com riscos. Se a experiência virar um banner fantasiado de resposta, a rejeição será imediata. O trade off está em manter o conteúdo intocado e a publicidade como bloco separado, algo equivalente a uma recomendação patrocinada fora do corpo editorial. No curto prazo, os testes pequenos e controlados, como os descritos em janeiro, indicam um caminho de baixa agressividade.
![Logo da Anthropic]
O contra argumento da Anthropic, e onde ele acerta
A campanha da Anthropic acerta no ponto sensível, ads e conversas íntimas não combinam. Como tese de posicionamento, é forte, cria diferenciação clara em fevereiro de 2026, amarra o discurso ao produto e joga a favor da confiança. Também capitaliza momentos em que usuários confundiram sugestões promocionais com anúncios, algo que a OpenAI já reconheceu como erro de execução e desativou no curto prazo.
Ao mesmo tempo, há uma diferença entre criticar uma má implementação e afirmar que toda publicidade em IA é inerentemente nociva. A própria história da internet mostra que formatos bem rotulados e contextuais podem gerar valor para quem paga a conta sem afetar a utilidade. A disputa aqui não é binária, é de desenho de produto e de governança de dados. O público vai julgar pelo detalhe, rótulos, separação, relevância e controles ao alcance de um clique.
O que observar nas próximas semanas
Primeiro, a execução dos testes de anúncios no ChatGPT. Como serão os critérios de elegibilidade por tema, como será a explicação de por que o usuário está vendo um anúncio, e como funcionará a opção de desativar personalização. Segundo, a evolução do discurso da Anthropic após o pico de mídia do Super Bowl, se manterá a linha de produto estritamente sem ads ou se abrirá espaço para outras formas de patrocínio fora da conversa, como naming rights em eventos e programas educacionais.
Terceiro, o impacto no crescimento de usuários pagantes frente à pressão de custos de inferência. A OpenAI cita o objetivo de ampliar acesso e manter uma camada gratuita, enquanto a Anthropic enfatiza foco em confiança e neutralidade. Esse choque de estratégias ajuda a explicar a contundência do post de Altman, que também criticou a rival por servir um produto caro a um público restrito e por tentar controlar o que outros fazem com IA.
Quarto, o efeito reputacional, campanhas agressivas podem elevar a consideração de marca no curto prazo, mas criam riscos se a acusação central for percebida como caricatura. Se as diretrizes da OpenAI forem cumpridas, e a experiência de anúncios ficar limitada, rotulada e desligável, a provocação perde força. Se houver deslizes, o slogan da Anthropic ganha ainda mais tração.
Reflexões e insights práticos
Como líder de produto, a bússola é simples, entregar utilidade com transparência. A controvérsia entre anúncios da Anthropic e princípios da OpenAI revela um ponto de maturidade do setor, modelos grandes precisam de receita sustentável, usuários precisam confiar que respostas não estão à venda. Sem clareza, a experiência degrada, com clareza, a publicidade pode se tornar infraestrutura, quase invisível, que barateia o acesso para milhões.
Como profissional de marketing, o caminho responsável é pilotar, não invadir. Comece por briefs que exigem, rótulo padronizado, relatório de segurança de marca, exclusões temáticas, testes A B de satisfação e impacto na tarefa do usuário. A pergunta certa não é quantos cliques, é quantas tarefas concluídas com menos atrito. Essa é a métrica que vai separar anúncios maduros de enfeites que atrapalham a conversa.
Conclusão
A briga retórica de 4 de fevereiro de 2026 cristaliza duas visões de monetização em IA. A Anthropic coloca o pé no freio, sem ads no Claude, e transforma a posição em campanha de massa. A OpenAI reconhece a necessidade de escalar acesso, descreve princípios para testes restritos e promete separação rígida entre resposta e anúncio. O usuário fica no centro, com critérios objetivos para avaliar o que é aceitável.
Para quem constrói e para quem anuncia, a lição é pragmática. Confiança é a moeda principal. Se a OpenAI cumprir o que publicou em 16 de janeiro, e se a Anthropic sustentar o que promete em 4 de fevereiro, o mercado terá dois caminhos distintos para aprender o que funciona. O julgamento final virá da experiência entregue, dos controles que o usuário tem e da honestidade do rótulo, mais do que de slogans bem sacados.
