UMG, Concord e ABKCO processam Anthropic por treinar Claude
Editoras musicais acusam a Anthropic de usar obras protegidas para treinar o chatbot Claude, ampliam a ação para mais de 20 mil músicas e pedem mais de 3 bilhões de dólares em danos
Danilo Gato
Autor
Introdução
UMG, Concord e ABKCO apresentaram nova ação contra a Anthropic, acusando a empresa de usar canções, letras e partituras para treinar o chatbot Claude. A queixa fala em mais de 20 mil obras e danos que podem superar 3 bilhões de dólares, um salto em relação ao processo de 2023. A palavra-chave aqui é clara, Anthropic processada por editoras musicais, com foco no treinamento do Claude.
O caso chega após um ano em que decisões e acordos começaram a traçar uma linha entre duas questões, treinar modelos pode ser considerado uso transformativo, mas adquirir conteúdo por meio de bibliotecas piratas não. Esse enquadramento aparece em decisões e reportagens recentes que envolvem a Anthropic e outros players de IA.
O artigo analisa o que está em jogo, o que há de novo nas alegações, como o caso conversa com a ação de 2023 e com processos contra startups de música gerativa, e quais caminhos práticos empresas e criadores podem seguir enquanto a jurisprudência se consolida.
O que há de novo na ação contra a Anthropic
Os editores dizem que descobriram atividades de torrenting e uso de bibliotecas de sombra para compor uma base central de textos, letras e partituras, e que parte desse acervo teria sido usada no treinamento de novas versões do Claude. Segundo os relatos, a ampliação do caso foi motivada por fatos revelados em outra ação judicial envolvendo livros. A nova peça pede mais de 3 bilhões de dólares por suposto uso de 20.517 obras, colocando o litígio entre os maiores casos de copyright não coletivos já movidos nos Estados Unidos.
A imprensa especializada detalha que os editores tentaram incluir as alegações de pirataria no processo de 2023, mas o tribunal negou a emenda em outubro, o que levou ao protocolo de uma ação separada em 28 de janeiro de 2026. A narrativa ainda cita, com ênfase, que a empresa teria recorrido a bibliotecas como LibGen para obter milhões de livros, alguns contendo canções, o que sustentaria a tese de violação independente do uso em treinamento.
Há outro ponto sensível, além da cifra, a ação teria incluído executivos da Anthropic na qualidade de réus, responsabilizando diretamente decisões e autorizações internas ligadas às supostas aquisições de conteúdo. Essa estratégia eleva a pressão sobre a governança e a diligência de compliance de empresas de IA.
Como isso se conecta ao processo de 2023
Em outubro de 2023, UMG, Concord e ABKCO já haviam processado a Anthropic por suposto uso e reprodução de letras protegidas. O cerne era que o Claude responderia com cópias quase integrais de letras quando solicitado, inclusive em prompts genéricos. A nova ação reaproveita esse pano de fundo, mas escala as alegações para um universo de obras muito maior.
Esse histórico importa porque mostra um padrão reclamado pelas editoras, dois eixos de infração, ingestão massiva sem licença e saída que reproduz, em parte, conteúdos protegidos. Na prática, o tribunal terá de pesar a linha entre transformação e memorização, além de verificar como o material foi obtido.
O papel das decisões sobre livros e o efeito dominó
Em 2025, um juiz federal reconheceu que o treinamento em livros protegidos pode configurar fair use, mas manteve a Anthropic na berlinda pelo modo de aquisição, por suposto uso de bibliotecas piratas. Meses depois, um acordo de 1,5 bilhão de dólares com autores foi aprovado de forma preliminar, valor que, embora alto, foi lido por parte do mercado como custo administrável para uma empresa de grande porte. Esse combo ajuda a explicar por que a música endureceu o tom em 2026.
Há também reportagens que descrevem um movimento de varredura e digitalização de livros, com compra e escaneamento em larga escala, apresentado como alternativa mais segura ao uso de bibliotecas piratas. Mesmo assim, a lição é inequívoca, como obter os dados importa, tanto quanto o uso.
IA generativa na música, o paralelo com Suno e Udio
O embate não está isolado. Gravadoras, coordenadas pela RIAA, abriram processos em 2024 contra os geradores musicais Suno e Udio, dizendo que os modelos só entregam resultados convincentes porque foram treinados em gravações protegidas, sem licença. As ações pedem a cessação e compensações, sustentando que a escala de cópia é massiva.
As startups rebatem com o argumento de fair use e de aprendizado legítimo a partir de material disponível online, tese que ainda será testada no mérito. Esse paralelo é útil, ele reforça que, enquanto alguns tribunais aceitam a ideia de transformação no treinamento, há forte resistência quando há indícios de obtenção irregular do acervo de referência.
O que está em jogo para editoras, plataformas e desenvolvedores
Para editoras musicais, o caso Anthropic sinaliza uma estratégia de litigância com duas metas, desincentivar coleta sem licença e forçar o mercado a estruturar acordos de dados de alta qualidade, com rastreabilidade. A cifra de 3 bilhões de dólares é menos um cálculo preciso e mais uma âncora de negociação que comunica risco jurídico concreto.
Para empresas de IA, a lição prática é dupla. Primeiro, políticas internas de aquisição de dados precisam ser tão robustas quanto a engenharia de modelos. Segundo, é prudente documentar cadeia de custódia do dataset, contratos, consentimentos e mecanismos de exclusão. Ignorar isso abre flanco para ações que miram a conduta, não apenas o output.
Exemplos práticos e caminhos de mitigação
• Inventário de dados com trilhas de auditoria. Mantenha um catálogo de fontes com status de licença, data de aquisição, contrato e, quando aplicável, comprovação de pagamento. Cruzar isso com as versões do modelo evita confusão na hora de responder a uma intimação.
• Mix de fontes, preferir licenças explícitas. Combine catálogos comerciais licenciados, conteúdos sob CC com verificação de origem e parcerias diretas. Evite depender do que é apenas publicamente acessível, sem clareza jurídica.

• Controles de saída. Filtros de letra, detecção de memorização, limites de citação e bloqueio de prompts sensíveis ajudam a reduzir o risco de reprodução literal, uma das alegações centrais do caso de 2023.
• Respostas consistentes de PR e jurídico. Quando questionada sobre citações ou fontes, uma companhia deve responder com evidências verificáveis. Episódios de citação imprecisa em peças jurídicas viram munição reputacional e reforçam a narrativa de descuido.
![Logo da Universal Music Group]
Onde essa disputa pode parar, cenários para 2026 e 2027
Há três cenários prováveis. Um, acordo vultoso com compromissos de licenciamento futuro, o que consolidaria a ideia de que datasets musicais precisam de autorização e pagamento, sem relativizações. Dois, vitória parcial das editoras que, mesmo que não enquadre todo o treinamento como infração, atinja a aquisição e crie precedentes duros para uso de bibliotecas piratas. Três, resultado misto que mantém o fair use no treinamento, mas cria obrigações de filtragem e de retirada de conteúdo, além de auditorias independentes.
No curto prazo, a indústria tende a acelerar ofertas de dados licenciados, com preços por obra, por minuto de áudio ou por faixa de metadados. Para startups, esse custo precisa entrar no modelo de negócios desde o dia zero, não depois que o produto escala. O paralelo com as ações contra Suno e Udio reforça a direção de viagem, direitos conexos e gravações ganham centralidade, não apenas letras.
Ferramentas e práticas para criadores e equipes de produto
Para músicos e selos independentes, vale monitorar e registrar usos não autorizados, usar ferramentas de fingerprint e manter catalogação limpa para facilitar reivindicações. Para equipes de produto, crie playbooks de escalonamento, quando um pedido legal chegar, quem analisa, quem responde, qual é o SLA e qual é a estratégia de correção no sistema, inclusive updates de filtros de saída.
E atenção às imagens e trilhas sonoras usadas em marketing e documentação. Plataformas de fotos livres ajudam, mas nem tudo que está em bancos gratuitos é seguro para uso comercial. Relatos recentes mostram reclamações por uso de conteúdos supostamente livres. A regra é simples, verifique a fonte direta, mantenha prova de licença e prefira acervos institucionalmente confiáveis.
![Logo da Anthropic]
Um detalhe que não passa despercebido, governança e tom regulatório
O fato de executivos serem citados pessoalmente na nova ação, segundo a cobertura especializada, reforça a mensagem de responsabilidade individual por decisões de coleta, armazenamento e uso de dados. Em empresas de IA, a fronteira entre P&D e jurídico precisa ser permeável. A governança moderna exige comitês de dados, políticas de revisão e logs que consigam provar o que foi feito, quando e por quem.
Ao mesmo tempo, a combinação de precedentes nos casos de livros e a escalada na música empurra reguladores e legisladores a considerar regras de transparência de datasets, auditorias e mecanismos de saída responsável. Mesmo que o fair use no treinamento siga com força, ninguém aprova métodos de aquisição que soem a atalho.
Reflexões e insights ao longo do caminho
• Fair use no treinamento não é salvo conduto para qualquer fonte. A discussão jurídica separa finalidade transformativa e cadeia de obtenção. Esse é o fio condutor dos casos recentes envolvendo a Anthropic.
• Dados com procedência, ainda que caros, reduzem incerteza e facilitam parcerias. Editoras e gravadoras querem previsibilidade e pagamento claro. Empresas de IA querem escala e segurança. Há um meio termo, catálogos licenciados e modelos de compensação por uso.
• Produtos de IA que tocam obras musicais exigem controles técnicos adicionais, como deduplicação agressiva, prevenção de memorização, cotas de citação e bloqueios a pedidos que busquem copiar letras protegidas. Isso endereça, diretamente, os exemplos citados na ação de 2023.
• O mercado de música já está testando os limites legais com Suno e Udio. O desfecho desses casos terá efeito persuasivo no caso Anthropic, especialmente no que diz respeito a como as cortes enxergam a escala de cópia e a necessidade de licença.
Conclusão
O processo que coloca a Anthropic na mira de UMG, Concord e ABKCO virou o caso de teste mais visível sobre músicas e IA no início de 2026. A ampliação para 20 mil obras e o pedido superior a 3 bilhões de dólares elevam a disputa a outro patamar, e dialogam com decisões recentes que distinguem o ato de treinar e o modo de obter os dados. Para quem constrói produtos, o recado é claro, governança de dados é tão estratégica quanto a qualidade do modelo.
Seja qual for o resultado, a indústria caminha para uma convivência mais profissional entre criadores e desenvolvedores. Quem internalizar licenciamento, rastreabilidade e controles de saída terá vantagem competitiva quando o pó baixar. Para artistas e editoras, a oportunidade está em transformar litígios em parcerias ancoradas por dados de alta qualidade e remuneração previsível.
