YouTube remove canais 'AI slop' de topo, um com 5,9 mi
YouTube iniciou uma remoção coordenada de grandes canais de conteúdo gerado por IA de baixa qualidade, após estudo da Kapwing, e sinalizou que políticas e algoritmos vão apertar para proteger a experiência e os anunciantes.
Danilo Gato
Autor
Introdução
YouTube removeu canais de AI slop de grande porte, incluindo perfis com mais de 5,8 milhões de inscritos e bilhões de visualizações, em um movimento que marca a virada da plataforma contra conteúdo gerado por IA de baixa qualidade. A palavra-chave aqui é YouTube remove canais de IA, e a decisão veio logo após a Kapwing mapear a escala do problema e dias depois de novas diretrizes destacarem combate a spam e clickbait.
O episódio envolve nomes que somavam audiência massiva, do entretenimento infantil ao religioso, e reforça a leitura de que o ciclo de incentivo algorítmico para vídeos baratos de produzir entrou em choque com a experiência do usuário e com expectativas de marcas. A CEO Neal Mohan incluiu a redução de AI slop como prioridade para 2026, indicando ajustes de produto e de políticas.
O artigo destrincha o que mudou, quais números explicam a medida, como isso impacta criadores e anunciantes, e quais práticas de qualidade e compliance ganham peso a partir de agora.
O que exatamente aconteceu
A reportagem do The Verge identificou a remoção de grandes canais classificados como AI slop, entre eles perfis com mais de 5,8 milhões de inscritos e bilhões de views. A análise cita a lista da Kapwing como base para verificar quedas e esvaziamentos desses canais no ar. Embora o YouTube não tenha feito anúncio formal, os sinais de enforcement aparecem em sequência a orientações públicas para reduzir conteúdo de baixa qualidade.
Em paralelo, veículos e agregadores apontaram que ao menos parte dos 100 maiores canais de AI slop mapeados pela Kapwing foi removida ou ficou sem vídeos, incluindo dois entre os cinco maiores. Esses perfis, juntos, somavam bilhões de visualizações e dezenas de milhões de inscritos, sinalizando que a intervenção não se limitou a pequenos players.
O movimento dialoga com ações contra categorias específicas que enganavam o público, como trailers falsos gerados por IA. Em dezembro, dois canais focados nesse formato foram encerrados por violarem políticas de engajamento enganoso, depois de suspensão de monetização.
![Ícone do YouTube 2024]
Os números por trás do AI slop
A base empírica que elevou o tema veio da Kapwing. Um estudo recente indicou que mais de 20 por cento dos vídeos exibidos a novos usuários podem ser classificados como AI slop, com 278 canais inteiramente dedicados a esse tipo de conteúdo entre os 15 mil maiores do mundo. Somados, esses canais acumulavam mais de 63 bilhões de views, 221 milhões de inscritos e uma estimativa de 117 milhões de dólares por ano. Esses números ajudam a entender por que cortes atingem canais gigantes.
Para contextualizar o timing, a carta anual de prioridades de 2026, assinada por Neal Mohan, reportou mais de 1 milhão de canais usando ferramentas de IA do próprio YouTube diariamente em dezembro. A plataforma quer IA como alavanca de criação, porém com trilhos claros para conter baixa qualidade. Essa distinção, entre IA que eleva o conteúdo e IA que só escala lixo de cliques, guia a nova fase de enforcement.
Outra peça do quebra cabeça foram investigações sobre conteúdo inadequado feito com IA que mirava crianças. Um levantamento da WIRED encontrou dezenas de canais com cartoons grotescos, violência e body horror disfarçados de vídeos infantis. Mesmo com remoções contínuas, novos perfis surgiam rápido, evidenciando a vantagem operacional que IA dá a maus atores. Isso colocou pressão extra por postura mais dura.
Como o algoritmo alimentou o problema, e por que isso muda agora
A dinâmica de recomendação premiou formatos que maximizavam retenção rápida com custo marginal quase zero. Ferramentas de geração de roteiro, voz, imagem e vídeo permitiram escalar centenas de uploads por dia, visando Shorts e nichos suscetíveis a curiosidade e choque. O estudo da Kapwing sugere que o feed de novos usuários favorecia esse conteúdo em volume relevante, enquanto o ecossistema de criadores legítimos perdia espaço de descoberta.
O avanço da moderação, impulsionado pelo risco para UX e para a confiança de anunciantes, tende a reequilibrar o feed. Em 2025, a plataforma já vinha endurecendo contra material inautêntico, dos trailers falsos a thumbnails e títulos iscas. A remoção de canais de AI slop amplia o escopo, atingindo redes que monetizavam em escala.
Vale notar a contradição aparente. YouTube incentiva criadores a usar IA nativa para Shorts, música e experiências interativas, ao mesmo tempo em que corta IA de baixa qualidade. Não é incoerência, é sinalização de produto. IA como recurso de criação, com disclosure e aderência a políticas, segue liberada. IA como fábrica de conteúdo enganoso ou repetitivo deixa de ser viável. A carta de Mohan consolida esse enquadramento.
Impacto prático para criadores, marcas e publishers
- Para criadores independentes, o recado é claro. Escalar com IA é bem vindo quando amplifica criatividade, não quando automatiza spam. Aderência às políticas de disclosure, consentimento para vozes e rostos de terceiros, e qualidade editorial serão condições para distribuição sustentável.
- Para marcas, a limpeza melhora a segurança de inventário e reduz risco de associação a conteúdo questionável. Além de CPMs potencialmente mais estáveis, cresce a eficácia de campanhas por conta de um feed menos poluído por cliques de baixa intenção.
- Para publishers, há oportunidade de recuperar discovery em temas capturados por slop, de tutoriais a curiosidades. Conteúdos originais e verificáveis tendem a ganhar vantagem competitiva nos próximos ajustes algorítmicos.
Casos recentes reforçam o risco de formatos enganosos. Canais de trailers falsos gerados por IA caíram por violar diretrizes, inclusive com suspensão prévia de monetização. Quem insistir em formatos de baixo valor, mesmo sem infringir direitos autorais, pode enfrentar desmonetização ou remoção.
Boas práticas de qualidade e compliance em vídeos com IA
- Transparência. Informe quando recursos de IA forem usados, especialmente em vozes, face swap e reconstruções visuais. O alinhamento com políticas de conteúdo sintético reduz risco de remoção.
- Consentimento e precisão. Evite personificações, trailers ou notícias fabricadas. Políticas contra engano, spam e metadados manipulados estão mais ativas em revisão e aplicação.
- Sinais de valor. Estruture vídeos com roteiro, fontes e demonstrações. A ponte com blogs e sites confiáveis ajuda o algoritmo a distinguir utilidade de replicação vazia.
- Mix de formatos. Shorts seguem potentes, mas séries longas, playlists temáticas e lives entregam sinais de comunidade difíceis de replicar com slop automatizado.
- Métricas certas. Otimize para retenção qualificada, comentários relevantes e returning viewers, e não apenas volume bruto de uploads.
Checklist tático para a semana:
- Audite seu catálogo. Remova títulos e thumbnails sensacionalistas herdados de testes de IA. Regrave narrações robóticas que prejudiquem confiança.
- Reveja disclosures. Padronize a linha que explica uso de IA quando aplicável.
- Atualize guias internos. Inclua política de não publicação para trailers gerados por IA, compilações sem contexto e reuploads automatizados.
- Fortaleça QA. Inclua validação factual com fontes e revisão humana final para cada peça.
- Reposicione Shorts. Use IA para storyboard e variações de hook, não para clonagem em massa.
O papel da pesquisa da Kapwing na virada do pêndulo
A Kapwing quantificou a extensão do AI slop no topo da plataforma, algo que muitos suspeitavam mas poucos conseguiam medir. A amostra incluiu 15 mil canais líderes e encontrou centenas dedicados exclusivamente a conteúdo automatizado, com alcance de dezenas de bilhões de views. A partir dessa exposição, várias das contas listadas foram encontradas removidas ou sem vídeos, indicando resposta recente no enforcement.
Há menções a canais específicos que desapareceram, outros que ficaram vazios e alguns que resistem apenas com a casca do canal, sem uploads, um padrão típico de ações graduais na plataforma enquanto recursos e disputas são avaliados. Relatos adicionais citaram perfis como Héroes de Fantasía e Super Cat League entre os afetados.
![Neal Mohan, CEO do YouTube, 2023]
Crianças, conteúdo impróprio e pressão regulatória
Quando IA barateia produção, o pior do conteúdo encontra atalho para escalar. A investigação da WIRED relatou dezenas de canais com cartoons violentos e fetichizados travestidos de vídeos infantis. Esse tipo de caso reacendeu memórias do Elsagate e elevou a pressão por mecanismos automáticos e humanos mais eficazes, com impacto direto na tolerância a slop infantil e pseudopedagógico.
O efeito colateral é uma revisão mais criteriosa de nichos aparentemente inofensivos, como quizzes e compilações de curiosidades. Se a experiência do usuário infantil é vulnerável, qualquer formato que facilite disfarces e engano tende a sofrer mais fricção no algoritmo e na moderação humana.
Estratégias de crescimento para 2026 sem depender de slop
- Construa séries com gancho editorial. Um arco claro de episódios, com roteiro e promessa de transformação, envia ao algoritmo sinais de valor que IA genérica não replica.
- Invista em pesquisa e fontes. Vídeos que citam dados, relatórios e estudos ganham autoridade e compartilhabilidade orgânica, além de blindagem frente a revisões de políticas.
- Use IA como assistente de criação. Geração de B-roll, variações de thumbnail e sugestões de capítulo aceleram a produção, mantendo o toque humano no núcleo. A estatística de 1 milhão de canais usando IA nativa diariamente mostra o caminho, desde que a qualidade permaneça central.
- Reforce a marca. Narrador reconhecível, identidade visual consistente e presença em comentários criam sinais de comunidade e autenticidade que sobrevivem a mudanças de feed.
O que observar nos próximos meses
- Ajustes silenciosos de distribuição. Expectativa de quedas de alcance para formatos repetitivos, especialmente em idiomas e países onde slop cresceu mais, como apontado pela Kapwing.
- Novas exigências de disclosure e consentimento. A pressão sobre o uso de vozes e rostos gerados por IA, assim como a rotulagem de conteúdo sintético, deve aumentar.
- Mudanças no inventário premium. Com menos slop, anunciantes podem reavaliar listas de exclusão e retomar verbas para categorias antes saturadas por vídeos de baixa qualidade.
- Reação de criadores. Parte migrará para ferramentas oficiais e fluxos híbridos. Outra parte insistirá em automação pura e enfrentará instabilidade crônica.
Conclusão
A remoção de canais de AI slop com milhões de inscritos encerra uma fase e inaugura outra. O YouTube quer IA a serviço de criatividade, e não como atalho de escala vazia. Estudos, investigações e casos recentes criaram o consenso mínimo para um enforcement mais firme. Para quem cria e anuncia, o jogo volta a ser sobre valor percebido, clareza de promessa e confiança.
O recado final é pragmático. Use IA como multiplicador, mas entregue utilidade. As regras ficaram mais nítidas, e os dados mostram que o público e os parceiros comerciais respondem quando a plataforma privilegia qualidade. Quem alinhar processo, disclosure e propósito tende a ganhar espaço conforme o feed se limpa.