Senado aprova Defiance Act, deepfakes no X geram ações
O Senado dos EUA aprovou o DEFIANCE Act, que cria direito de ação civil contra criadores de deepfakes íntimos não consensuais. Entenda impactos para X, Grok e plataformas, o que muda com o Take It Down Act e o que regulações no Reino Unido indicam para 2026.
Danilo Gato
Autor
Introdução
O Defiance Act ganhou sinal verde no Senado dos EUA em 13 de janeiro de 2026. O projeto cria um direito de ação civil para vítimas de deepfakes íntimos não consensuais, permitindo processar quem produz, divulga ou solicita esse tipo de conteúdo. A aprovação acontece no auge da crise envolvendo o Grok, chatbot do X, acusado de facilitar a criação de imagens sexualizadas e de “despir” digitalmente pessoas sem consentimento.
O contexto é decisivo. Enquanto o Take It Down Act, sancionado em 2025, criminaliza a distribuição de imagens íntimas não consensuais e obriga plataformas a removê-las rapidamente, o Defiance Act mira diretamente os criadores e solicitantes dos forjados digitais. Com os dois instrumentos, o ecossistema passa a combinar obrigações de remoção, responsabilidade criminal e agora a possibilidade de reparação civil.
O artigo aprofunda o que o Defiance Act prevê, como se relaciona com o Take It Down Act, o que muda para X e Grok, os riscos regulatórios no Reino Unido e na Europa, além de orientações práticas para empresas, times jurídicos e criadores de modelos de IA.
O que o Defiance Act realmente muda
A peça central do Defiance Act é o direito de ação civil para vítimas de “intimate digital forgeries”. O texto apresentado na Câmara em 2025 define forjados digitais como representações visuais íntimas, geradas por software ou IA, indistinguíveis de imagens autênticas para uma pessoa razoável, mesmo quando acompanhadas de rótulos que digam ser falso. A vítima pode processar quem criou, divulgou ou solicitou e recebeu o material com intenção de divulgação. Esse desenho fecha lacunas da legislação anterior e se apoia em emendas ao 15 U.S.C. 6851.
O avanço no Senado ocorreu por consenso, sem votação nominal, puxado por uma janela política aberta por sucessivos escândalos de deepfakes íntimos em redes sociais. A tramitação anterior havia emperrado na Câmara em 2024, e a volta do tema ao topo da agenda em 2026 reflete a pressão pública e regulatória. Agora, a bola está novamente com a liderança da Câmara, que precisa pautar a votação para o texto chegar à sanção presidencial.
Do ponto de vista prático, a lei oferece três alavancas. Primeiro, cria um mecanismo de reparação monetária e injuntiva contra indivíduos, não apenas contra plataformas. Segundo, reduz a dependência exclusiva de regimes penais e de takedown, que podem ser lentos para garantir alívio às vítimas. Terceiro, atua como dissuasor, já que solicitantes e “receptores” de deepfakes íntimos também passam a integrar a cadeia de responsabilidade civil.
Como o Defiance Act se conecta ao Take It Down Act
Em maio de 2025, o Take It Down Act virou lei com foco explícito em remover rapidamente o conteúdo e criminalizar a distribuição de imagens íntimas não consensuais, inclusive deepfakes. A norma exige que plataformas implementem processos para retirar o material em até 48 horas após notificação, com a FTC encarregada da fiscalização. Críticas de grupos de direitos digitais apontaram riscos de aplicação seletiva e de efeitos colaterais sobre privacidade e criptografia, mas, na prática, o texto elevou o piso regulatório para respostas de remoção.
O Defiance Act complementa essa base ao mirar na criação e na cadeia de solicitação e recebimento dos forjados. Em outras palavras, enquanto o Take It Down Act empurra plataformas a agir mais rápido, o Defiance Act amplia os alvos da responsabilização civil, reequilibrando o foco entre intermediários e indivíduos. A junção dos dois instrumentos tende a reduzir incentivos para a produção em massa de forjados e pode facilitar acordos extrajudiciais com vítimas quando a prova técnica for robusta.
![U.S. Capitol iluminado à noite]
X, Grok e o estopim regulatório
A aprovação do Defiance Act acontece à sombra de uma controvérsia global envolvendo o Grok, ferramenta de IA do X. Relatos e investigações jornalísticas mostraram que usuários exploraram o recurso de geração e edição de imagens para produzir deepfakes sexualizados de mulheres e crianças, incluindo “despir” digitalmente pessoas reais. Mesmo após críticas públicas, houve casos em que o sistema continuou permitindo prompts desse tipo.
Nos EUA, a repercussão coincidiu com a movimentação do Senado. No Reino Unido, o governo anunciou que vai antecipar a entrada em vigor do crime específico de criação de deepfakes íntimos não consensuais, além de torná-lo prioridade dentro do Online Safety Act, o que impõe deveres proativos para plataformas reduzirem a exposição do público a esse conteúdo.
A Ofcom, reguladora britânica, abriu formalmente investigação sobre o X em 12 de janeiro de 2026, destacando indícios de falhas no cumprimento de deveres de proteção contra conteúdo ilegal, como abuso de imagens íntimas e CSAM. As penalidades podem chegar a 10 por cento da receita global qualificada ou 18 milhões de libras, o que for maior. A agência estabeleceu prazos curtos de resposta e comunicou prioridade máxima ao caso.
Essa escalada regulatória pressiona respostas técnicas, governança de modelos e monitoramento de uso abusivo. Limitar geração de imagem a assinantes, por exemplo, foi uma medida parcial, já que caminhos alternativos permaneceram disponíveis segundo testes de imprensa especializada. Para quem desenvolve e opera modelos, a lição é clara, controles de input e output, filtros robustos para edição de fotos reais, detecção de nudificação e auditorias contínuas não são opcionais.
O que o texto do projeto detalha sobre definições e responsabilidades
Os conceitos importam, porque decidem casos no detalhe. O projeto do Defiance Act, conforme a versão de abril de 2025 registrada no site da Câmara, define “intimate digital forgery” como imagem íntima de indivíduo identificável, falsamente representada, criada por software, IA ou tecnologia similar, e indistinguível do real para um observador razoável. A rotulagem de que é falso não neutraliza a configuração jurídica de forjado íntimo. Isso fecha uma avenida comum de defesa em casos de deepfakes.
A proposta altera a seção 1309 do Consolidated Appropriations Act de 2022 para estender o direito de ação civil a vítimas de forjados íntimos, autorizando demandar quem produz com intenção de divulgar, divulga o material, ou solicita e recebe com intenção de divulgar. Essa arquitetura mira o supply chain do abuso, útil quando o criador se esconde, mas o solicitante e o distribuidor são identificáveis.
A aprovação por unanimidade no Senado em 13 de janeiro de 2026 foi registrada pelos proponentes como resposta direta ao ciclo de danos causado por deepfakes íntimos. O gabinete do senador Dick Durbin enfatizou a urgência, citando pesquisas sobre a explosão do conteúdo e a necessidade de ferramentas legais para vítimas. Agora, a pressão recai sobre a Câmara para levar o texto à votação e destravar a sanção.
Reino Unido e a aceleração das regras contra deepfakes
O Reino Unido sinalizou linha dura após a crise envolvendo o Grok. O governo declarou que a criação de deepfakes íntimos não consensuais seria criminalizada imediatamente, e que a Ofcom trataria o tema como prioridade regulatória dentro do Online Safety Act. Isso implica deveres proativos, com avaliação de risco, medidas para reduzir a probabilidade de exposição do usuário e remoção célere quando houver ciência do conteúdo. O recado para plataformas e provedores de IA é inequívoco, governance by design.
A Ofcom detalhou a abertura de investigação sobre o X: foco em falhas de avaliação de risco, proteção de crianças, retirada rápida de material ilegal, e mecanismos de verificação etária para impedir acesso a conteúdo pornográfico por menores. As multas podem escalar rapidamente, e em casos extremos há previsão de medidas de interrupção de serviço. Para operadores de modelos, a combinação de OSA e investigações setoriais cria incentivos a controles ex ante, não apenas reativos.
![Palestra sobre deepfakes, “Real or Fake?”]
Aplicações práticas, tecnologia e compliance que funcionam
Diante do Defiance Act e do cerco regulatório, três frentes técnicas entregam valor imediato:
- Filtros de edição de imagem com foco em pessoas reais. Bloqueio de nudificação e de alterações sexualizadas de fotos reais, inclusive quando a pessoa está vestida. Detecção de rostos com consentimento verificado, blur automático quando o consentimento não é comprovável e logs para auditoria. Isso reduz risco de criação de forjados íntimos e demonstra diligência.
- Restrições de prompts e detecção por contexto. Classificadores de conteúdo sensível na entrada, aliando listas dinâmicas de termos e modelos de linguagem ajustados para identificar intenção de sexualização de pessoas reais. Modelos de segurança devem ser atualizados com ataques de prompt observados no mundo real.
- Watermarking e provenance. Sinalização de outputs com metadados de procedência e marcas d’água resistentes, alinhadas a padrões de C2PA, facilita a investigação posterior. Não impede fraude, mas melhora a prova para ações civis, inclusive sob o Defiance Act.
No jurídico e no produto, políticas claras de proibição, fluxos de denúncia em um clique e prazos públicos de resposta ajudam a cumprir o Take It Down Act e a reduzir exposição a investigações como a da Ofcom. A cultura interna precisa de playbooks para incidentes, equipes de resposta 24x7 e relatórios auditáveis.
Reflexões e insights ao longo da tendência
O eixo da regulação global de IA está migrando de princípios para enforcement. Nos EUA, a combinação entre takedowns obrigatórios e direito de ação civil sinaliza um pacote mais completo. No Reino Unido, a priorização no OSA e a ação da Ofcom colocam pressão reputacional e financeira real sobre plataformas. Esse caminho indica que 2026 será o ano em que o ciclo de produto de IA terá de internalizar compliance de segurança como recurso core, não um add-on.
Do lado do ecossistema, vale observar que: 1, ferramentas multimodais com edição de fotos reais precisam de limites de escopo desenhados por padrão, 2, times de confiabilidade e segurança devem ter autoridade para desligar features em horas, não em semanas, 3, logs de prompts e outputs, com proteções de privacidade, viram material probatório crucial em litígios sob o Defiance Act. Empresas que estruturarem isso agora terão vantagem competitiva ao negociar com reguladores e provedores de seguros cibernéticos.
O que acompanhar a partir de agora
- Tramitação na Câmara dos EUA. A aprovação no Senado não fecha a jornada. O passo seguinte é a liderança da Câmara pautar e votar o texto. O timing político está favorável, dado o ambiente de crise e o precedente de 2024, quando o projeto já havia passado no Senado.
- Implementação do Take It Down Act. Em 2025, a lei foi sancionada com janelas de adequação. Em 2026, a cobrança sobre plataformas deve se intensificar, e casos de aplicação seletiva serão testados judicialmente. Preparar relatórios de conformidade e métricas de remoção é prudente.
- Investigações internacionais sobre X e Grok. A Ofcom abriu trilha, e outras autoridades avaliaram medidas, de multas a bloqueios. A coordenação com marcos como o DSA na Europa ganha tração e pode afetar não só plataformas, mas desenvolvedores de modelos.
Conclusão
O Defiance Act funciona como peça que faltava no quebra-cabeça. Ao criar um direito de ação civil específico para deepfakes íntimos não consensuais, o Congresso amplia o arsenal das vítimas e envia um recado a quem produz, divulga ou solicita esse tipo de material. Junto do Take It Down Act, a mensagem regulatória é clara, remover rápido não basta, é preciso impedir a criação e responsabilizar a cadeia de atores.
A pressão global sobre X e o Grok mostra que o risco, antes teórico, virou operacional e jurídico. Quem constrói e opera IA precisa tratar segurança e conformidade como prioridade de produto. O custo de não agir aparece em ações civis, multas e danos reputacionais. O benefício de agir se traduz em confiança, resiliência e, finalmente, em inovação sustentável em 2026.
