Logotipo da Grammarly, versão com cores azul e amarela
IA e ética

Grammarly AI Expert Review usa jornalistas e profs sem aval

O recurso Expert Review da Grammarly AI passou a exibir sugestões “inspiradas” por jornalistas e professores reais, sem pedir consentimento, reacendendo debates sobre ética, transparência e fontes em produtos de IA.

Danilo Gato

Danilo Gato

Autor

7 de março de 2026
10 min de leitura

Introdução

Grammarly AI Expert Review virou assunto quando começou a apresentar feedbacks “inspirados” em jornalistas e professores sem consentimento explícito. Em 6 de março de 2026, o The Verge mostrou exemplos com nomes de seu próprio time editorial aparecendo dentro da interface do Google Docs como se fossem comentários de especialistas, o que provocou reações imediatas do mercado.

A polêmica importa porque toca no coração da confiança em sistemas de IA. Quando um produto sugere que jornalistas e acadêmicos inspiraram conselhos específicos, usuários tendem a interpretar aquilo como validação de autoridade. O problema é que, segundo a cobertura, ninguém havia autorizado o uso de seus nomes, e as fontes indicadas pela ferramenta frequentemente eram imprecisas ou levavam a páginas de spam.

O que é o Grammarly AI Expert Review, como funciona e onde aparece

O Expert Review é um agente dentro do ecossistema de escrita da empresa. A própria página de suporte descreve que ele identifica “experts” relevantes a partir do seu texto e oferece sugestões do ponto de vista desses especialistas, com um aviso de que referências a experts “não indicam afiliação ou endosso”. Está disponível em Superhuman Go e em docs, o novo ambiente de escrita da plataforma, com acesso integral para assinantes Pro e Plus.

Segundo a documentação, o fluxo é simples. Depois de pelo menos 150 palavras, o painel à direita ativa o Expert Review, cruza o conteúdo com experts e expõe recomendações em cartões de resumo, com opção de inserir ou descartar cada exemplo. Também é possível “pré-selecionar” experts por tópico, o que ajusta as dicas exibidas.

Em agosto do ano anterior ao rebrand, a empresa lançou uma leva de agentes especializados para diferentes tarefas de escrita, incluindo o Expert Review, integrados ao docs. A iniciativa marcou a transição do corretor tradicional para um conjunto de agentes de produtividade que atuam ao longo do processo de redação, da curadoria de citações ao verificador de originalidade.

![Logo da Grammarly em variação com cores da Ucrânia]

O que as reportagens descobriram, em detalhes

O The Verge testou o Expert Review e encontrou nomes de seu editor-chefe e outros editores aparecendo como referências dentro do fluxo de edição no Google Docs, sem que tivessem dado autorização para tal uso. O artigo também relata experiências com links de “fonte” que por vezes levavam a cópias não oficiais, páginas arquivadas e até links não relacionados, o que enfraquece a rastreabilidade do conhecimento que supostamente inspira o conselho da IA. Publicado em 6 de março de 2026, o texto compara a apresentação do recurso com comentários humanos autênticos, algo que pode induzir interpretações equivocadas por parte dos usuários.

O WIRED, em 4 de março de 2026, reforçou a crítica ao reproduzir recomendações atribuídas a autores vivos e falecidos. A matéria cita ainda reações de acadêmicos que consideram antiético transformar nomes e legados em “agentes” sem envolvimento dos próprios profissionais ou de seus espólios.

A empresa, por sua vez, afirma que o agente não reivindica endosso nem participação direta dos experts, que as sugestões são “inspiradas por obras de especialistas” e que o objetivo é orientar usuários a explorar vozes influentes em cada área. Essa posição apareceu tanto na página de suporte do produto quanto nas respostas enviadas à imprensa.

Rebrand, contexto de produto e por que isso acontece agora

No fim de 2025, a companhia por trás do Grammarly anunciou um rebrand para Superhuman e ampliou sua ambição de plataforma de produtividade orientada por agentes, mantendo “Grammarly” como marca do assistente de escrita. A mudança, coberta por diversos veículos de tecnologia, situou o Expert Review dentro de um mosaico maior de agentes, como Citation Finder, AI Grader e AI Detector, todos operando no novo docs e no Superhuman Go.

Essa guinada ajuda a explicar o empurrão para recursos de “autoridade simulada”. Em um cenário em que editores de texto concorrentes adicionam agentes conversacionais e orientadores de estilo, usar o nome de figuras reconhecidas como “lentes” para feedback parece uma forma de diferenciar a experiência. O risco, porém, é confundir “inspiração algorítmica” com participação efetiva, principalmente quando a interface adota padrões visuais que lembram comentários humanos.

![Conceito visual de inteligência artificial, cérebro e circuitos]

Onde a ferramenta falha, na prática

  • Sinalização ambígua. O rótulo “inspirado por” pode passar batido quando o usuário está focado em concluir um rascunho. Se o layout se parece com comentários em tempo real, a tendência é interpretar o conteúdo como uma revisão humana, o que amplia o risco de associação indevida de autoridade.
  • Fontes frágeis. Parte dos links exibidos pelo recurso teria apontado para cópias, mirrors e páginas não relacionadas, prejudicando verificação e atribuição. Sem um pipeline de curadoria robusto e resolução de canônicos, a experiência degrada rapidamente.
  • Perfis desatualizados. Reportagens citam inconsistências em descrições e afiliações dos “experts”, o que poderia ser corrigido com governança editorial e, idealmente, contato prévio com os envolvidos.

Ética, legalidade e reputação, o que está em jogo

  • Direitos de personalidade e de marca. Embora obras publicadas possam ser usadas como insumo para modelos, usar o nome e a reputação de alguém como “selo” dentro de um produto comercial levanta discussões sobre uso indevido de identidade e confusão quanto a endosso, especialmente quando a apresentação imita comentários de pessoas reais. Os próprios relatos indicam que os profissionais citados não deram permissão.
  • Transparência algorítmica. Se a ferramenta não consegue demonstrar com clareza de quais textos extraiu padrões e quais passagens sustentam uma recomendação, fica difícil separar “inspiração” de “atribuição enganosa”. O WIRED encontrou referências a autores vivos e mortos, o que adiciona camadas éticas ao simular vozes de quem não pode consentir.
  • Risco institucional. Universidades, redações e empresas que adotam agentes de escrita precisam de políticas sobre atribuição, fontes e uso de nomes de terceiros. Sem isso, há risco de exposição jurídica, além de dano reputacional por “autoridade de fachada”.

Boas práticas imediatas para equipes que usam o Grammarly AI Expert Review

  • Ajuste de acesso e governança. Para ambientes Enterprise, Business e Education, o Expert Review fica acessível no docs e pode ter acesso controlado por administradores. Defina políticas de quando e como usar o agente, especialmente em trabalhos acadêmicos e comunicados públicos.
  • Checagem de fontes. Crie um checklist interno para validar qualquer “fonte” oferecida pelo recurso. Priorize o link canônico do veículo ou do autor original e descarte mirrors ou páginas de agregadores. A reportagem do The Verge mostra por que isso é essencial.
  • Rotulagem explícita. Em documentos compartilhados, padronize avisos como “recomendação algorítmica, não revisão humana” sempre que incorporar sugestões do agente. Isso mitiga o risco de leitores confundirem inspirações com endossos.
  • Auditoria de precisão. Registre exemplos onde a ferramenta erra o tom, citações ou contexto. Esses dados são insumo para treinar equipes e calibrar quando confiar, quando editar e quando ignorar.

Como comunicar o uso de IA de modo responsável

  • Política pública de IA. Divulgue um documento curto que explique quando agentes de escrita são usados, quais tarefas são automatizadas e como é feita a atribuição de fontes. Adote linguagem que diferencie claramente “inspiração” de “aprovação”.
  • Permissão e escopo. Se nomes de terceiros forem exibidos em qualquer fluxo visível para clientes, alunos ou leitores, busque consentimento prévio ou troque por rótulos genéricos de estilos e escolas de pensamento. O caso em pauta mostra os custos de pular essa etapa.
  • Verificabilidade. Links devem levar ao conteúdo original, com data e autor. Ao menor sinal de link quebrado, mirror ou repositório não oficial, substitua pela fonte primária.

O que a própria empresa diz, limitações e leitura crítica

A página oficial do recurso traz o aviso de que as menções a experts são “para fins informativos” e “não indicam afiliação ou endosso”. Também detalha como escolher experts, inserir exemplos e controlar o que entra no texto. Essa comunicação, embora necessária, não resolve o ponto sensível da apresentação visual que lembra comentários humanos, como observado pelos testes de jornalistas.

No contexto do rebrand para Superhuman e da expansão do portfólio de agentes no docs, a pressão por diferenciação ajuda a entender a aposta. Mas diferenciação não substitui consentimento, precisão de fontes nem UX honesta. O episódio evidencia como decisões de design e copy podem transformar um recurso potencialmente útil em um gerador de ruído e risco.

Seis passos práticos para times de conteúdo e educação

  1. Ligue o modo cético. Trate todo conselho do Expert Review como hipótese a ser checada, não como autoridade final. Valide com fontes primárias antes de publicar.
  2. Padronize versões. Se a equipe usa o docs, documente quais agentes podem ser ativados em cada tipo de entrega, e registre quando sugestões de “experts” foram incorporadas.
  3. Crie uma “biblioteca canônica”. Para cada beat editorial ou disciplina acadêmica, mantenha uma lista curada de autores, obras e links canônicos. Use-a para substituir automaticamente fontes dúbias apresentadas pelo agente.
  4. Exija rastreabilidade. Sem URL original, data e autor, a sugestão não entra. Se o produto apontar para cópias ou agregadores, refaça a busca e anexe a fonte primária.
  5. Documente consentimentos. Se decidir expor nomes de especialistas reais em qualquer artefato público, colete autorizações por escrito. O investimento em governança evita crises futuras.
  6. Capacite usuários. Treine docentes, alunos e redatores para reconhecer a diferença entre um comentário humano e uma recomendação algorítmica. Mostre exemplos de como interfaces podem induzir equivalência enganosa.

Reflexões e insights

Como toda IA aplicada à linguagem, o valor do Expert Review depende menos da “magia” do modelo e mais da cadeia de responsabilidade em volta. Um bom agente de escrita precisa de três pilares: apresentação honesta, fontes verificáveis e governança clara. Quando qualquer uma dessas colunas falha, a promessa de atalhos produtivos vira atalho para descrédito.

Outro ponto crucial é empatia com o leitor. Do lado de quem consome o texto, ver nomes de figuras respeitadas confere conforto cognitivo. É como se alguém competente tivesse “olhado” o documento. Se a interface reproduz essa sensação sem que haja envolvimento real, a relação de confiança com a marca sofre. E, em comunicação, confiança é um ativo difícil de reconquistar.

Conclusão

O caso do Grammarly AI Expert Review, revelado com detalhes em 4 e 6 de março de 2026, é um lembrete duro. A pressa para lançar features que soam inteligentes não pode atropelar consentimento, clareza e precisão. Entre inspirar-se em obras públicas e sugerir que personalidades “participam” do feedback existe um fosso ético, jurídico e de UX que não dá para ignorar.

Para quem lidera conteúdo, ensino e comunicação, a oportunidade está em adotar IA com disciplina. Transparência na apresentação, curadoria de fontes e governança de nomes são o tripé mínimo para colher ganhos reais de produtividade sem sacrificar a confiança de leitores, alunos e clientes.

Tags

GrammarlySuperhumangovernança de IA