Wikipedia proíbe artigos gerados por IA na edição inglesa
Mudança histórica nas diretrizes da Wikipédia em inglês limita IA a correções simples e traduções com revisão humana, após meses de debates sobre qualidade, fontes falsas e rapidez para excluir páginas de baixa qualidade
Danilo Gato
Autor
Introdução
Wikipedia proíbe artigos gerados por IA. A mudança ficou explícita em 26 de março de 2026, quando o The Verge relatou a atualização das diretrizes da Wikipédia em inglês, que agora vetam usar grandes modelos de linguagem para escrever ou reescrever conteúdo de artigos. A regra mantém apenas duas exceções, correções simples sugeridas pela IA, sem introduzir novas informações, e tradução assistida por IA, desde que o editor domine os dois idiomas e revise tudo.
A importância é direta. O projeto sempre se apoiou em verificabilidade, neutralidade e fontes confiáveis. Com o avanço dos modelos generativos, cresceu a enxurrada de textos com erros e referências inexistentes. A nova diretriz busca reduzir o ruído e preservar a reputação do site, ao mesmo tempo em que permite usos pontuais e auditáveis de IA.
Este artigo explica o que mudou, por que isso aconteceu, como a comunidade chegou até aqui, o que outras versões da enciclopédia estão fazendo e o que isso significa para times de conteúdo, produtos e pesquisa que dependem da Wikipédia.
O que exatamente mudou na política
A página oficial “Writing articles with large language models” foi marcada como diretriz de conteúdo. O resumo é cristalino, não use LLMs para gerar conteúdo de artigos. Há duas exceções, sugestões de copyediting que não introduzam conteúdo novo e traduções assistidas por IA, obedecendo regras específicas. O texto frisa que alguns humanos podem escrever com estilo parecido ao de LLMs, por isso sanções exigem mais do que sinais estilísticos, é preciso avaliar aderência às políticas centrais e o histórico de edições. A página foi atualizada em 28 de março de 2026, reforçando o momento recente da mudança.
Para traduções, existe uma diretriz irmã, “LLM‑assisted translation”. Ela exige que o editor seja proficiente no idioma de origem e no inglês, verifique alucinações, valide fontes no idioma original e faça a atribuição adequada. O texto também orienta usar espaço de usuário ou rascunho e aplicar a etiqueta de revisão humana.
No anúncio jornalístico, o The Verge detalhou que a alteração vale para a Wikipédia em inglês e resultou de uma proposta com ampla maioria, após discussão comunitária pública. O veículo também relaciona a novidade a esforços paralelos, como um critério de “eliminação rápida” para páginas geradas por IA e o WikiProject AI Cleanup, focado em identificar e remover conteúdo de baixa qualidade.
Por que a comunidade endureceu o tom com IA
O estopim foi pragmático. Editores passaram a enfrentar artigos com tom de assistente virtual, citações sem nexo e até referências inventadas, um custo de manutenção alto para voluntários que patrulham a qualidade. Em 2025, a comunidade já vinha criando mecanismos para acelerar a remoção de páginas claramente geradas por IA sem passar por longas discussões, além de catalogar sinais linguísticos típicos em um guia prático.
Havia um histórico recente de atrito. Em junho de 2025, a Fundação Wikimedia testaria resumos gerados por IA no topo de páginas, em caráter opt in. A reação de editores foi imediata e o experimento foi pausado em menos de um dia, segundo 404 Media e ampla cobertura de imprensa. O episódio virou um fator cultural, alimentou ceticismo e consolidou o entendimento de que IA deve ser usada com muito mais parcimônia na superfície editorial.
A própria Fundação reconheceu, em sua estratégia de IA 2025, que o humano vem primeiro. A posição oficial é apoiar voluntários com IA para tarefas repetitivas, detecção de vandalismo e tradução, não para substituir o processo editorial. Essa distinção ajuda a entender a decisão comunitária de proibir textos de artigos gerados por LLMs, preservando exceções bem delimitadas.
![Logo da Wikipedia em fundo neutro]
Como funciona o novo limite, na prática
O veto é amplo para criação ou reescrita de conteúdo de artigos com IA. O editor pode, no entanto, pedir sugestões de copyediting ao modelo, contanto que nenhuma ideia, dado, número ou interpretação nova seja introduzida pelo sistema. O risco aqui é óbvio, modelos tendem a extrapolar. Por isso, a diretriz pede cautela e revisão humana cuidadosa.
No caso de tradução, a orientação expõe um checklist objetivo. Dominar ambos os idiomas, caçar alucinações, cotejar fontes originais e inserir citações inline. Há também um fluxo recomendado, manter a tradução bruta em espaço de usuário ou rascunho, com etiqueta específica, até ser refinada. Esse processo tenta combinar o ganho de produtividade das ferramentas com uma barreira explícita contra deslizes que comprometam verificabilidade.
Por fim, sinais meramente estilísticos não bastam para punir alguém. O texto reconhece que estilos convergem e que decisões devem olhar para aderência às políticas de conteúdo, como verificabilidade e ponto de vista neutro, e para o histórico de edições de quem contribuiu. Isso reduz falsos positivos e evita caça às bruxas baseada em “parece IA”.
O que mudou nos processos de exclusão e patrulha
Ao longo de 2025, a comunidade documentou um critério de eliminação rápida voltado a páginas claramente geradas por IA e não revisadas, com sinais como linguagem de chatbot, citações nonsense e referências inexistentes. Em vez de abrir uma discussão de sete dias, administradores podem remover imediatamente se a evidência for clara. Em paralelo, o WikiProject AI Cleanup organizou guias com frases e padrões de formatação típicos, tudo acessível e evolutivo.
Esse arranjo equilibra velocidade e devido processo. O padrão não diz que qualquer texto suspeito vai ao lixo, ele orienta checagem contextual e pede confirmação além de estilo. Em outras palavras, conteúdo questionável deve cair por violar políticas centrais, não só por “cheiro de IA”.
Outras Wikipédias estão seguindo o mesmo caminho
Há diversidade de abordagens entre edições por idioma. Em fevereiro de 2026, a Wikipédia em alemão aprovou um banimento amplo de conteúdo gerado por IA em artigos e páginas de discussão, com bloqueios para reincidência. Exceções foram mantidas para tradução assistida, ortografia e pesquisa, sempre com revisão humana. A justificativa citou riscos de detecção e alucinações, enquanto críticos chamaram atenção para a dificuldade de fiscalização.
Já na Wikipédia em inglês, prevaleceu um caminho mais granular, combinado por diretrizes específicas, eliminação rápida quando aplicável e iniciativas de limpeza. A diretriz recém formalizada fecha uma lacuna importante, deixando claro que LLM não pode escrever ou reescrever artigos, e mantendo espaços onde a IA pode ser útil sob forte controle editorial.
![Ilustração de rede neural com fundo escuro]
Como isso afeta equipes de conteúdo, produtos e pesquisa
Para times de SEO e conteúdo, a mensagem é nítida. Conteúdo para Wikipédia precisa nascer humano, com pesquisa em fontes fiáveis e checagem linha a linha. Ferramentas de IA continuam valendo para rascunhos internos, brainstorming e checagens locais de estilo, mas a publicação exige mão firme e domínio do tema. Erros e citações inventadas queimam reputação e não passam mais.
Para produtos digitais e IA, o recado é duplo. Primeiro, a Wikipédia reafirma um padrão de qualidade auditável, com processos públicos e reversões registradas. Segundo, essa qualidade não é gratuita. Em 2025, a Fundação reforçou que quer IA para reduzir tarefas repetitivas e ajudar na patrulha, ao mesmo tempo em que cobra de empresas de IA atribuição e licenciamento justos quando usam conteúdo da enciclopédia. Isso ecoa parcerias e o modelo Wikimedia Enterprise, pensado para fornecer dados estruturados com termos claros.
Para pesquisa e academias, a diretriz ajuda a separar espaço de uso seguro, tradução com revisão e copyediting, de áreas de risco em que o modelo pode inventar. A lição prática é trabalhar com IA como lente auxiliar, nunca como autor fantasma do verbete.
Tendências que explicam o timing
O recuo no teste de resumos em 2025 foi um ponto de virada. Em poucas horas de debate público, editores afirmaram que o recurso causaria dano imediato e irreversível à confiança de leitores. O teste foi pausado, uma vitória simbólica da governança aberta sobre o entusiasmo tecnológico. Esse histórico embasou a linha dura de 2026.
Relatos jornalísticos também destacaram o custo invisível que IA impôs aos voluntários, do tempo gasto com páginas mal escritas a guias para identificar falsificações de fontes. A resposta foi criar um “sistema imune” comunitário, nas palavras de um diretor de produto da Fundação, e agora consolidar diretrizes claras.
O que observar a partir de agora
- Implementação. Como administradores e revisores vão aplicar a diretriz no dia a dia, em especial nos casos limítrofes entre copyediting e reescrita substantiva.
- Traduções. Crescimento do uso de IA para tradução com revisão humana, e efeitos na velocidade de expansão de artigos bons sobre temas não cobertos no inglês.
- Coordenação entre edições. Se a decisão da Wikipédia em alemão cria efeito de rede ou se permanece um outlier, dada a diversidade de culturas comunitárias.
- Ferramentas auxiliares. Evolução de features como Edit Check e Paste Check para educar novatos e desestimular colagens de IA, somadas a sistemas de detecção de vandalismo.
Recomendações práticas para marcas e equipes editoriais
- Trate Wikipédia como canal de reputação, não como playground de IA. Se um assunto é relevante, invista em fontes primárias e secundárias sólidas e em especialistas que conhecem as regras da casa.
- Use IA como lupa, não como caneta. Deixe a IA sugerir simplificações de frase e ortografia, nunca a condução do argumento ou a fabricação de fatos.
- Em tradução, só publique depois de revisão bilíngue. Cheque se cada afirmação potencialmente contestável tem citação inline a fonte confiável.
- Se suspeitar de “AI slop”, não entre em guerra de estilos. Volte às políticas centrais, verifique fontes, abra discussão com evidências.
Conclusão
A diretriz que proíbe artigos gerados por IA na Wikipédia em inglês não é um gesto antitecnologia. É um compromisso explícito com verificabilidade e responsabilidade editorial, depois de um ano em que a própria comunidade precisou criar anticorpos contra o ruído. O resultado preserva espaço para IA onde ela é mais útil, revisão de forma e tradução com controle humano, e barra o uso que mais fere a confiança, a escrita autônoma de artigos.
Para quem constrói produtos e conteúdo, o recado é simples. A Wikipédia continuará a ser o padrão ouro de transparência editorial. Quem quiser colher valor do ecossistema precisa jogar com as regras, atribuir corretamente, licenciar de forma justa e, acima de tudo, colocar humanos no centro das decisões de conteúdo. É assim que se sustenta qualidade em escala, num ambiente onde a produção automatizada cresce, mas a confiança do leitor ainda é conquistada linha por linha.