Grammarly AI Expert Review usa jornalistas e profs sem aval
O recurso Expert Review da Grammarly AI passou a exibir sugestões “inspiradas” por jornalistas e professores reais, sem pedir consentimento, reacendendo debates sobre ética, transparência e fontes em produtos de IA.
Danilo Gato
Autor
Introdução
Grammarly AI Expert Review virou assunto quando começou a apresentar feedbacks “inspirados” em jornalistas e professores sem consentimento explícito. Em 6 de março de 2026, o The Verge mostrou exemplos com nomes de seu próprio time editorial aparecendo dentro da interface do Google Docs como se fossem comentários de especialistas, o que provocou reações imediatas do mercado.
A polêmica importa porque toca no coração da confiança em sistemas de IA. Quando um produto sugere que jornalistas e acadêmicos inspiraram conselhos específicos, usuários tendem a interpretar aquilo como validação de autoridade. O problema é que, segundo a cobertura, ninguém havia autorizado o uso de seus nomes, e as fontes indicadas pela ferramenta frequentemente eram imprecisas ou levavam a páginas de spam.
O que é o Grammarly AI Expert Review, como funciona e onde aparece
O Expert Review é um agente dentro do ecossistema de escrita da empresa. A própria página de suporte descreve que ele identifica “experts” relevantes a partir do seu texto e oferece sugestões do ponto de vista desses especialistas, com um aviso de que referências a experts “não indicam afiliação ou endosso”. Está disponível em Superhuman Go e em docs, o novo ambiente de escrita da plataforma, com acesso integral para assinantes Pro e Plus.
Segundo a documentação, o fluxo é simples. Depois de pelo menos 150 palavras, o painel à direita ativa o Expert Review, cruza o conteúdo com experts e expõe recomendações em cartões de resumo, com opção de inserir ou descartar cada exemplo. Também é possível “pré-selecionar” experts por tópico, o que ajusta as dicas exibidas.
Em agosto do ano anterior ao rebrand, a empresa lançou uma leva de agentes especializados para diferentes tarefas de escrita, incluindo o Expert Review, integrados ao docs. A iniciativa marcou a transição do corretor tradicional para um conjunto de agentes de produtividade que atuam ao longo do processo de redação, da curadoria de citações ao verificador de originalidade.
![Logo da Grammarly em variação com cores da Ucrânia]
O que as reportagens descobriram, em detalhes
O The Verge testou o Expert Review e encontrou nomes de seu editor-chefe e outros editores aparecendo como referências dentro do fluxo de edição no Google Docs, sem que tivessem dado autorização para tal uso. O artigo também relata experiências com links de “fonte” que por vezes levavam a cópias não oficiais, páginas arquivadas e até links não relacionados, o que enfraquece a rastreabilidade do conhecimento que supostamente inspira o conselho da IA. Publicado em 6 de março de 2026, o texto compara a apresentação do recurso com comentários humanos autênticos, algo que pode induzir interpretações equivocadas por parte dos usuários.
O WIRED, em 4 de março de 2026, reforçou a crítica ao reproduzir recomendações atribuídas a autores vivos e falecidos. A matéria cita ainda reações de acadêmicos que consideram antiético transformar nomes e legados em “agentes” sem envolvimento dos próprios profissionais ou de seus espólios.
A empresa, por sua vez, afirma que o agente não reivindica endosso nem participação direta dos experts, que as sugestões são “inspiradas por obras de especialistas” e que o objetivo é orientar usuários a explorar vozes influentes em cada área. Essa posição apareceu tanto na página de suporte do produto quanto nas respostas enviadas à imprensa.
Rebrand, contexto de produto e por que isso acontece agora
No fim de 2025, a companhia por trás do Grammarly anunciou um rebrand para Superhuman e ampliou sua ambição de plataforma de produtividade orientada por agentes, mantendo “Grammarly” como marca do assistente de escrita. A mudança, coberta por diversos veículos de tecnologia, situou o Expert Review dentro de um mosaico maior de agentes, como Citation Finder, AI Grader e AI Detector, todos operando no novo docs e no Superhuman Go.
Essa guinada ajuda a explicar o empurrão para recursos de “autoridade simulada”. Em um cenário em que editores de texto concorrentes adicionam agentes conversacionais e orientadores de estilo, usar o nome de figuras reconhecidas como “lentes” para feedback parece uma forma de diferenciar a experiência. O risco, porém, é confundir “inspiração algorítmica” com participação efetiva, principalmente quando a interface adota padrões visuais que lembram comentários humanos.
![Conceito visual de inteligência artificial, cérebro e circuitos]
Onde a ferramenta falha, na prática
- Sinalização ambígua. O rótulo “inspirado por” pode passar batido quando o usuário está focado em concluir um rascunho. Se o layout se parece com comentários em tempo real, a tendência é interpretar o conteúdo como uma revisão humana, o que amplia o risco de associação indevida de autoridade.
- Fontes frágeis. Parte dos links exibidos pelo recurso teria apontado para cópias, mirrors e páginas não relacionadas, prejudicando verificação e atribuição. Sem um pipeline de curadoria robusto e resolução de canônicos, a experiência degrada rapidamente.
- Perfis desatualizados. Reportagens citam inconsistências em descrições e afiliações dos “experts”, o que poderia ser corrigido com governança editorial e, idealmente, contato prévio com os envolvidos.
Ética, legalidade e reputação, o que está em jogo
- Direitos de personalidade e de marca. Embora obras publicadas possam ser usadas como insumo para modelos, usar o nome e a reputação de alguém como “selo” dentro de um produto comercial levanta discussões sobre uso indevido de identidade e confusão quanto a endosso, especialmente quando a apresentação imita comentários de pessoas reais. Os próprios relatos indicam que os profissionais citados não deram permissão.
- Transparência algorítmica. Se a ferramenta não consegue demonstrar com clareza de quais textos extraiu padrões e quais passagens sustentam uma recomendação, fica difícil separar “inspiração” de “atribuição enganosa”. O WIRED encontrou referências a autores vivos e mortos, o que adiciona camadas éticas ao simular vozes de quem não pode consentir.
- Risco institucional. Universidades, redações e empresas que adotam agentes de escrita precisam de políticas sobre atribuição, fontes e uso de nomes de terceiros. Sem isso, há risco de exposição jurídica, além de dano reputacional por “autoridade de fachada”.
Boas práticas imediatas para equipes que usam o Grammarly AI Expert Review
- Ajuste de acesso e governança. Para ambientes Enterprise, Business e Education, o Expert Review fica acessível no docs e pode ter acesso controlado por administradores. Defina políticas de quando e como usar o agente, especialmente em trabalhos acadêmicos e comunicados públicos.
- Checagem de fontes. Crie um checklist interno para validar qualquer “fonte” oferecida pelo recurso. Priorize o link canônico do veículo ou do autor original e descarte mirrors ou páginas de agregadores. A reportagem do The Verge mostra por que isso é essencial.
- Rotulagem explícita. Em documentos compartilhados, padronize avisos como “recomendação algorítmica, não revisão humana” sempre que incorporar sugestões do agente. Isso mitiga o risco de leitores confundirem inspirações com endossos.
- Auditoria de precisão. Registre exemplos onde a ferramenta erra o tom, citações ou contexto. Esses dados são insumo para treinar equipes e calibrar quando confiar, quando editar e quando ignorar.
Como comunicar o uso de IA de modo responsável
- Política pública de IA. Divulgue um documento curto que explique quando agentes de escrita são usados, quais tarefas são automatizadas e como é feita a atribuição de fontes. Adote linguagem que diferencie claramente “inspiração” de “aprovação”.
- Permissão e escopo. Se nomes de terceiros forem exibidos em qualquer fluxo visível para clientes, alunos ou leitores, busque consentimento prévio ou troque por rótulos genéricos de estilos e escolas de pensamento. O caso em pauta mostra os custos de pular essa etapa.
- Verificabilidade. Links devem levar ao conteúdo original, com data e autor. Ao menor sinal de link quebrado, mirror ou repositório não oficial, substitua pela fonte primária.
O que a própria empresa diz, limitações e leitura crítica
A página oficial do recurso traz o aviso de que as menções a experts são “para fins informativos” e “não indicam afiliação ou endosso”. Também detalha como escolher experts, inserir exemplos e controlar o que entra no texto. Essa comunicação, embora necessária, não resolve o ponto sensível da apresentação visual que lembra comentários humanos, como observado pelos testes de jornalistas.
No contexto do rebrand para Superhuman e da expansão do portfólio de agentes no docs, a pressão por diferenciação ajuda a entender a aposta. Mas diferenciação não substitui consentimento, precisão de fontes nem UX honesta. O episódio evidencia como decisões de design e copy podem transformar um recurso potencialmente útil em um gerador de ruído e risco.
Seis passos práticos para times de conteúdo e educação
- Ligue o modo cético. Trate todo conselho do Expert Review como hipótese a ser checada, não como autoridade final. Valide com fontes primárias antes de publicar.
- Padronize versões. Se a equipe usa o docs, documente quais agentes podem ser ativados em cada tipo de entrega, e registre quando sugestões de “experts” foram incorporadas.
- Crie uma “biblioteca canônica”. Para cada beat editorial ou disciplina acadêmica, mantenha uma lista curada de autores, obras e links canônicos. Use-a para substituir automaticamente fontes dúbias apresentadas pelo agente.
- Exija rastreabilidade. Sem URL original, data e autor, a sugestão não entra. Se o produto apontar para cópias ou agregadores, refaça a busca e anexe a fonte primária.
- Documente consentimentos. Se decidir expor nomes de especialistas reais em qualquer artefato público, colete autorizações por escrito. O investimento em governança evita crises futuras.
- Capacite usuários. Treine docentes, alunos e redatores para reconhecer a diferença entre um comentário humano e uma recomendação algorítmica. Mostre exemplos de como interfaces podem induzir equivalência enganosa.
Reflexões e insights
Como toda IA aplicada à linguagem, o valor do Expert Review depende menos da “magia” do modelo e mais da cadeia de responsabilidade em volta. Um bom agente de escrita precisa de três pilares: apresentação honesta, fontes verificáveis e governança clara. Quando qualquer uma dessas colunas falha, a promessa de atalhos produtivos vira atalho para descrédito.
Outro ponto crucial é empatia com o leitor. Do lado de quem consome o texto, ver nomes de figuras respeitadas confere conforto cognitivo. É como se alguém competente tivesse “olhado” o documento. Se a interface reproduz essa sensação sem que haja envolvimento real, a relação de confiança com a marca sofre. E, em comunicação, confiança é um ativo difícil de reconquistar.
Conclusão
O caso do Grammarly AI Expert Review, revelado com detalhes em 4 e 6 de março de 2026, é um lembrete duro. A pressa para lançar features que soam inteligentes não pode atropelar consentimento, clareza e precisão. Entre inspirar-se em obras públicas e sugerir que personalidades “participam” do feedback existe um fosso ético, jurídico e de UX que não dá para ignorar.
Para quem lidera conteúdo, ensino e comunicação, a oportunidade está em adotar IA com disciplina. Transparência na apresentação, curadoria de fontes e governança de nomes são o tripé mínimo para colher ganhos reais de produtividade sem sacrificar a confiança de leitores, alunos e clientes.
