Grammarly desativa IA que atribuía feedback a autores reais
Após forte reação de jornalistas, autores e acadêmicos, a empresa desativou o Expert Review, recurso de IA que gerava comentários atribuídos a pessoas reais, levantando debates sobre consentimento e transparência no uso de identidades
Danilo Gato
Autor
Introdução
Grammarly desativa ferramenta de IA que atribuía feedback a autores reais. Em 11 de março de 2026, a empresa retirou do ar o Expert Review depois da repercussão negativa por usar nomes e vozes de escritores, jornalistas e acadêmicos sem consentimento claro, segundo reportagens que detalham a polêmica e o recuo oficial.
A relevância do caso vai além de um ajuste de produto. O episódio coloca sob holofotes o uso de identidades no treinamento e na apresentação de recursos de IA, pressionando o mercado a rever limites de consentimento, atribuição e transparência. Também sinaliza como marcas precisam equilibrar ambição tecnológica com credibilidade editorial.
Este artigo explica o que exatamente foi desativado, por que a comunidade reagiu, como a linha do tempo evoluiu, o que muda para equipes de conteúdo e quais práticas reduziram risco sem travar a inovação.
O que exatamente foi desativado
O Expert Review surgiu como um modo de receber sugestões geradas por IA “na perspectiva de” especialistas, aparecendo na barra lateral do assistente de escrita. O recurso foi descrito em detalhes por coberturas que rastrearam seu lançamento e funcionamento, inclusive com referência a lançamentos em agosto do ano anterior e a interface que fazia parecer que os comentários vinham de pessoas reais.
A empresa anunciou que desativou o Expert Review após a controvérsia, movendo-se rapidamente para repensar o desenho do recurso. Matérias publicadas em 11 de março de 2026 citam a decisão e destacam o motivo central, o uso de nomes de profissionais vivos e até falecidos como supostas vozes do feedback.
Por que a reação foi tão forte
A crítica concentrou-se em consentimento e autenticidade. Reportagens apontaram que vozes de jornalistas e acadêmicos foram apresentadas como referências do feedback, sem que esses profissionais tivessem autorizado o uso de suas identidades, o que gerou a percepção de endosso indevido e, em alguns casos, de simulação pós-morte. Essa combinação ampliou o desconforto ético e o risco jurídico.
Além de Engadget e Yahoo Tech destacarem a desativação, análises e notas noticiosas em outros veículos mapearam o problema estrutural, a começar pela ausência de autorização explícita para apropriação de persona. O ponto não era apenas o treinamento em obras publicadas, mas a apresentação da sugestão como se viesse do próprio autor referenciado, uma diferença sutil para o público leigo, mas decisiva em termos de responsabilidade.
Linha do tempo, de lançamento à retirada
- 7 de março de 2026, cobertura detalha que o Expert Review permitia chamar feedback “na perspectiva” de especialistas diretamente na interface do Grammarly, contextualizando o funcionamento e a promessa do recurso.
- 11 de março de 2026, veículos noticiam que a Grammarly desativou o Expert Review depois da reação pública, citando o uso de nomes reais e de um estudioso falecido como exemplos do problema de consentimento.
- Reportagem publicada em 11 de março também vincula a decisão ao ambiente jurídico, descrevendo uma ação coletiva relacionada ao recurso, além de uma declaração da empresa sobre repensar o design para dar mais controle a especialistas citados.
Esse encadeamento revela um ciclo clássico em produtos de IA, do lançamento rápido ao ajuste reativo, quando a percepção pública expõe arestas que não foram totalmente previstas nos testes internos.
O pano de fundo corporativo que ajuda a explicar a aposta
O contexto organizacional importa. Em 2025, Grammarly adquiriu o cliente de e-mail Superhuman e, meses depois, anunciou a mudança do nome corporativo para Superhuman, reposicionando-se como uma plataforma de produtividade com múltiplos agentes de IA e unificando produtos como Coda e Superhuman Mail. Nesse modelo, a pressão por recursos transversais e “inteligentes” cresceu, e a tentação de usar marcas pessoais como atalho de valor percebido também.
A reconfiguração deixou claro que a visão ia além de correções gramaticais, mirando fluxos de trabalho completos e colaboração assistida por agentes. Isso explica parte do impulso por features que evocam autoridade editoral, mas também expõe um risco reputacional quando a execução ultrapassa os limites do consentimento.
O que muda para equipes de marketing, conteúdo e produto
- Políticas de identidade e consentimento. Qualquer uso de nome, imagem ou persona requer trilhas claras de autorização. A linha entre “inspirado por” e “em nome de” não pode ser deixada à interpretação da interface. A experiência do Expert Review mostra como microtextos, ícones e formatação de comentários influenciam a leitura como endosso. Coberturas recentes evidenciam que a percepção do usuário foi de atribuição direta.
- Transparência por design. Deixar explícito o que é gerado por IA e o que é curadoria humana, inclusive com disclaimers visíveis e logs verificáveis, é hoje uma exigência prática para reduzir risco jurídico e preservar confiança. O noticiário reforça que a falta de clareza aumenta a chance de backlash rápido.
- Evitar “autoridade emprestada”. Substituir nomes de pessoas por rótulos genéricos, por exemplo, “perspectiva acadêmica de redação científica, treinada em corpus X auditado”, entrega valor sem capturar a identidade de terceiros. TechCrunch descreveu o recurso como sugestões na perspectiva de especialistas, uma pista de direção mais segura quando não há consentimento explícito.
Como operacionalizar IA com segurança sem perder velocidade
- Base legal e governança editorial. Estabelecer critérios de uso de marcas pessoais, revisar termos e roteiros de UX, criar um conselho editorial que atue junto ao time de IA e incorporar auditorias externas. O caso do Expert Review mostra que governança não é burocracia, é blindagem de produto. O próprio anúncio de desativação em 11 de março marca o custo de iterar depois da crise.
- Camadas de transparência para o usuário final. Quando o modelo “imita vozes”, avise de forma inequívoca, com linguagem direta e persistente, e nunca formate como comentário que pareça humano real. Relatos jornalísticos demonstram que a proximidade visual com comentários de editores reais aumentou a confusão.
- Escalonar por pilotos com grupos sensíveis. Antes de dar escala total, rode o recurso com usuários avançados que entendem a natureza generativa e conseguem diferenciar inspiração de endosso. Relatórios de reação pública mostram como um pequeno desvio sem contexto claro ganha proporção quando amplificado por autores e redações.
O impacto para o usuário comum de ferramentas de escrita
Usuários vinham relatando frustrações com camadas de IA que vão além da revisão tradicional, incluindo detecção de IA e reescritas que afetam voz e clareza. Esse ruído ajuda a explicar por que um recurso que “parece humano” acendeu um sinal vermelho mais rápido. Esses tópicos aparecem em fóruns, embora reflitam percepções subjetivas e não estudos científicos controlados. Use como termômetro, não como prova absoluta.
No centro da discussão está a confiança. Quem adota IA para acelerar rascunhos e revisar entregas precisa ter clareza sobre autoria, fontes e limites do sistema. A notícia de 11 de março reforça que transparência, controles de privacidade e linguagem de interface são parte do produto, não apêndices.
![Logo da Grammarly em fundo branco]
Boas práticas imediatas para líderes de conteúdo
- Desativar ou restringir recursos que atribuam feedback a pessoas reais sem contrato específico. A decisão pública de desativação do Expert Review, datada de 11 de março de 2026, mostra que o custo de recuo pode ser alto. Faça o ajuste antes da crise.
- Revisar UX de comentários e sugestões. Comentários de IA nunca devem espelhar o padrão visual de anotações humanas quando isso possa induzir a erro. Materiais jornalísticos detalham como a interface contribuiu para a confusão.
- Instituir rotas de consentimento e exclusão. Se houver qualquer traço de pessoa identificável, ofereça opt-in explícito e um canal de opt-out funcional, com SLA e auditoria. A controvérsia inteira cresceu sobre a fronteira entre “inspirado por” e “atribuído a”.
![Computador com editor de texto, metáfora de escrita assistida por IA]
O que observar nos próximos meses
- Redesenho do recurso. Reportagens indicam que a empresa pretende repensar o Expert Review para dar controle real aos especialistas sobre como querem ser representados, ou não, nos produtos. A direção admite que a interface precisa comunicar limites com maior precisão. Acompanhar novas versões e termos será essencial.
- Padrões de mercado. O caso cria precedente de experiência do usuário a ser compartilhado entre plataformas de escrita e de produtividade. É provável que guidelines setoriais surjam, inspiradas na repercussão que levou à desativação.
- Pressões regulatórias. Consentimento, identidade e deepfakes editoriais estão no radar de reguladores. Crises públicas tendem a acelerar consultas e recomendações. O grau de transparência cobrado das empresas de IA subirá a barra para todos.
Ferramentas e configurações que ajudam agora
- Preferências de IA. Em recursos como reescrita, estilo e tom, ligue apenas o que seu time entende e monitora. Os próprios materiais de suporte sugerem caminhos para ativar ou desativar módulos generativos conforme a necessidade.
- Políticas de autoria. Formalize processos para registrar versões, origens de conteúdo e justificativas de edições. Isso dá lastro quando um cliente, professor ou auditor questiona autoria e originalidade em tempos de geração automática.
- Treinamento sobre leitura crítica de sugestões. Ensine equipes a interpretar sugestões como hipóteses, não verdades. Menos fricção e mais acurácia nas entregas.
Conclusão
A retirada do Expert Review marca um ponto de inflexão. Grammarly desativa ferramenta de IA que atribuía feedback a autores reais e assume que, sem consentimento e sem comunicação impecável, a inovação pode derrapar no essencial, a confiança. O caso mostra que design de produto em IA é também design de responsabilidade.
Para líderes e equipes, a lição é pragmática. Estruture governança de identidade, seja explícito na interface e trate o usuário como parceiro. Quem acertar nessa combinação vai colher ganhos de produtividade com menos ruído reputacional, entregando o melhor da IA sem confundir autoria, mérito e voz.