Cúpula do Capitólio dos EUA sob céu azul, símbolo do Congresso
Política de IA

Trump assina ordem contra leis estaduais de IA, ameaça BEAD

Ordem executiva direciona agências a contestar leis estaduais de IA e a condicionar acesso a verbas do programa federal de banda larga, abrindo nova fase da disputa por quem dita as regras do setor

Danilo Gato

Danilo Gato

Autor

5 de janeiro de 2026
10 min de leitura

Introdução

A ordem executiva assinada em 11 de dezembro de 2025 instrui agências federais a desafiar leis estaduais de inteligência artificial, estabelece uma força-tarefa de litígios e abre caminho para restringir o acesso de estados a verbas de banda larga do programa BEAD. Palavra chave principal, ordem executiva de IA, aparece aqui porque o foco é direto: o governo federal quer consolidar a regulação em torno de um padrão nacional, reduzindo o espaço para regras estaduais divergentes. O texto oficial cita o Colorado como exemplo, critica a noção de “discriminação algorítmica” e mira uma estrutura mínima de obrigações para o setor.

A movimentação acontece após meses de impasses no Congresso em torno de uma moratória para impedir que estados regulamentem IA. Tentativas legislativas anteriores fracassaram, o que empurrou o tema para uma decisão via caneta presidencial. Enquanto isso, estados como Colorado e Califórnia aprovaram marcos próprios, criando um mosaico regulatório que preocupa empresas e entusiasma procuradores-gerais estaduais que defendem sua autonomia.

Este artigo disseca os principais pontos da ordem, o que pode acontecer com leis estaduais já aprovadas, os riscos jurídicos dessa abordagem e as implicações práticas para times de produto, jurídico e compliance em empresas de IA e de infraestrutura digital.

O que a ordem executiva determina, na prática

O texto “Ensuring a National Policy Framework for Artificial Intelligence” deixa três frentes claras. Primeiro, o Departamento de Justiça deve criar, em 30 dias, uma AI Litigation Task Force para processar estados cujas leis conflitem com a política federal, alegando preempção, violação à cláusula de comércio interestadual ou outras bases. Segundo, o Departamento de Comércio precisa, em até 90 dias, listar as leis estaduais consideradas “onerosas” e potencialmente incompatíveis, e avaliar sua relação com a política nacional. Terceiro, autoriza ações coordenadas com FTC e FCC para, respectivamente, emitir posicionamento sobre quando leis estaduais exigem “outputs não verdadeiros” de modelos, e abrir procedimento para adotar um padrão federal de transparência e reporte de modelos que preempte normas conflitantes.

O documento também condiciona, dentro do que a lei permitir, a elegibilidade de estados a recursos remanescentes do BEAD à ausência de leis de IA consideradas incompatíveis. Em termos práticos, isso transforma banda larga em alavanca de política de IA, criando incentivos para que governadores e legislaturas reavaliem dispositivos que a Casa Branca classifica como barreiras à inovação.

Do ponto de vista de governança, a ordem é expansiva. Não derruba leis estaduais por si só, algo que exigiria atos do Congresso ou decisões judiciais. Em vez disso, arma a esfera federal para litigar e tentar inibir a produção normativa local, enquanto desenha uma trilha para padronização via regulação setorial e “soft law”. É uma abertura de temporada para disputas constitucionais sobre preempção, comércio interestadual e limites do poder executivo.

Como ficam as leis estaduais, com casos de Colorado e Califórnia

O Colorado aprovou em 2024 a SB24-205, conhecida como Colorado AI Act, um marco que impõe deveres de diligência a desenvolvedores e usuários de sistemas de alto risco, incluindo gestão de risco, avaliações de impacto, deveres de transparência, direito de contestação humana e notificação ao procurador-geral em casos de discriminação algorítmica. As obrigações principais passam a valer a partir de 2026. Essa lei é citada nominalmente na ordem como exemplo de regra que, segundo o Executivo, poderia forçar “outputs não verdadeiros” para evitar tratamento diferencial.

Na Califórnia, o SB-53, o Transparency in Frontier Artificial Intelligence Act, aprovado em 2025, exige avaliações públicas de risco catastrófico e documentação de padrões de segurança para desenvolvedores de modelos de fronteira. É uma abordagem com foco em riscos sistêmicos, transparência e mecanismos de denúncia. A confluência entre a lei californiana e a ordem federal vai depender do que a Administração considerar “oneroso” na prática e do quanto buscará preempção sobre padrões de disclosure.

Outras jurisdições, como o Texas, avançam com conselhos e normas setoriais, sobretudo em segurança infantil, conteúdo sexual e deepfakes. O cenário é dinâmico e diverso, com regras que vão de governança em compras públicas a responsabilidades civis por conteúdo sintético. Essa proliferação amplia a chance de colisões com a estratégia federal de uniformização.

![Cúpula do Capitólio, centro dos embates federais e estaduais]

O gatilho financeiro, o que é o BEAD e por que isso importa

O BEAD, no guarda-chuva do Department of Commerce e implementado pela NTIA, é um programa de 42,45 bilhões de dólares para levar banda larga a áreas sem conexão de qualidade. Estados submeteram propostas e alguns já detalham como pretendem usar os recursos, seguindo avisos de reestruturação e critérios técnicos da NTIA. Condicionar acesso a essa verba à adesão a uma política federal de IA é um movimento inédito que liga infraestrutura de conectividade a regras de IA.

Estratégias estaduais publicadas em 2025 evidenciam a dependência desses fundos para fechar o gap digital com redes de fibra, rádio licenciado e soluções híbridas. Um aviso de política condicionando recursos não diretamente ligados a implantação física, algo que a ordem menciona, cria pressão política real em capitais estaduais. A leitura de NTIA e parceiros sobre a relação entre patchwork regulatório e difusão de aplicações de IA sobre redes de alta velocidade será central.

Do ponto de vista de empresas de telecom e provedores regionais, a incerteza política pode atingir decisões de investimento e a elegibilidade de projetos que já contavam com a janela do BEAD. Para empresas de IA, o incentivo é claro, priorizar estados que sinalizem alinhamento com a moldura federal, enquanto monitoram litígios que podem redefinir limites de disclosure, avaliação de risco e auditorias em modelos.

Congresso, tentativas de moratória e o xadrez político

Os esforços para aprovar uma moratória de 10 anos a normas estaduais de IA foram testados em 2025 e não avançaram. Houve articulação para anexar linguagem de preempção na NDAA e em outros pacotes, mas a resistência bipartidária e de procuradores-gerais estaduais travou a iniciativa. O Axios registrou que a proposta de preempção ampla articulada por lideranças no Senado e na Câmara era “tiro longo”, com oposição intensa e baixa probabilidade de avançar. A ordem agora tenta, pela via regulatória e litigiosa, o que o Congresso não entregou.

A Associação Nacional de Procuradores-Gerais divulgou carta em novembro de 2025, assinada por dezenas de estados, pedindo que o Congresso rejeitasse a moratória. Procuradores estaduais argumentam que preempção ampla deixaria consumidores vulneráveis e reduziria a capacidade de resposta a riscos emergentes, de golpes a deepfakes sexuais e interferência eleitoral. A oposição estadual robusta antecipa uma frente judicial ativa contra tentativas de condicionar verbas ou de preempção por ato infralegal.

FTC, FCC e o risco de preempção regulatória indireta

A ordem orienta a FTC a emitir posicionamento em até 90 dias sobre quando leis estaduais exigiriam “alterações de outputs verdadeiros” e, por isso, seriam preemptas pelo FTC Act. Em paralelo, o texto pede ao presidente da FCC iniciar processo para um padrão federal de reporte e divulgação de modelos. Essas duas trilhas, se materializadas, criam camadas de preempção indireta, via interpretação e regra técnica, que podem limitar drasticamente a eficácia de obrigações estaduais de transparência e avaliação de risco.

Movimentos recentes da FTC já sugerem alinhamento com a diretriz de evitar ordens consideradas excessivas ou inibidoras da inovação em IA, como o caso em que a agência reabriu e anulou um acordo de 2024 contra um serviço de geração de reviews com IA, citando o plano federal de IA. Embora esse precedente seja específico, sinaliza a ênfase na punição de fraudes e danos concretos, e menos em proibições ex ante de funcionalidades de IA.

Para quem opera produtos com IA generativa, a mensagem pragmática é dupla. Primeiro, preparar dossiês técnicos que defendam a veracidade e a não manipulação artificial de outputs, especialmente em domínios sensíveis. Segundo, mapear conflitos potenciais entre requisitos estaduais de impacto algorítmico e eventuais padrões federais de reporte que venham da FCC, avaliando o risco de litígio e a possibilidade de harmonização voluntária.

Implicações imediatas para produtos, compliance e estratégia

No curto prazo, equipes jurídicas devem:

  • Inventariar obrigações estaduais aplicáveis em 2026, com foco em Colorado e Califórnia, e preparar cenários de preempção parcial. Isso inclui revisar programas de gestão de risco, avaliações de impacto e mecanismos de contestação humana exigidos pela SB24-205.
  • Monitorar o cronograma de 90 dias do Departamento de Comércio e o posicionamento da FTC, além de eventuais aberturas de procedimento na FCC sobre disclosure de modelos. Preparar contribuições técnicas para consultas públicas será decisivo para moldar o padrão nacional.
  • Avaliar exposição a financiamento público e parcerias que dependam de recursos do BEAD, sobretudo para soluções que combinem conectividade e IA embarcada. O mapeamento de dependências de verbas federais e estaduais ajuda a precificar riscos políticos.

Em produto e engenharia, a disciplina passa por documentação robusta de datasets, controles de segurança infantil, mitigação de alucinações e parâmetros de veracidade dos outputs em domínios regulados, tudo com trilhas de auditoria. Em mercados como saúde, finanças e moradia, políticas de revisão humana e canais de apelação não são só boas práticas, são linhas de defesa contra ações de procuradorias e ações coletivas.

![Data center, infraestrutura crítica para IA e banda larga]

O que pode acontecer nos tribunais

Litígios sobre preempção costumam ser maratonas, não sprints. Estados podem alegar que condicionar verbas do BEAD a mudanças em suas leis de IA extrapola o escopo legal do programa e viola princípios federativos. O governo federal, por sua vez, tende a argumentar que padrões nacionais de disclosure e restrição a outputs “não verdadeiros” são necessários para manter a unidade do mercado e a liberdade de expressão de modelos. As referências explícitas na ordem a First Amendment e comércio interestadual mostram a linha de ataque que será explorada.

Uma variável importante é o Congresso. Se uma lei federal de IA for aprovada com cláusulas claras de preempção e salvaguardas de segurança infantil, infraestrutura e uso governamental, a base jurídica da ordem se fortalece politicamente, mesmo que continue sujeita a questionamentos constitucionais. Caso contrário, a estratégia dependerá de vitórias caso a caso, com risco de decisões contraditórias em diferentes circuitos.

Reflexões e insights para quem constrói com IA

  • Padronização pode reduzir custos de compliance para startups e PMEs, mas só se o padrão for previsível, estável e calibrado por evidências. Sem isso, a incerteza jurídica se traduz em atraso de roadmap e preferência por mercados menos litigiosos.
  • Leis estaduais de alto risco, como a do Colorado, criam linguagem comum para governança de IA, algo que times de produto conseguem traduzir em controles concretos. Mesmo que a preempção avance, frameworks como avaliação de impacto, gestão de risco e direito de apelação tendem a permanecer como boas práticas de mercado.
  • O uso de verbas de conectividade como alavanca para política de IA inaugura um precedente. Se funcionar, outras agendas tecnológicas podem seguir a mesma lógica, conectando financiamento a adesão regulatória. Isso é poderoso, mas traz o risco de politização de programas essenciais, como inclusão digital.

Conclusão

O Executivo colocou IA no centro do tabuleiro regulatório, com uma estratégia que combina litígio, padronização regulatória e condicionamento de verbas. A curto prazo, empresas devem preparar documentação técnica, reforçar governança e acompanhar de perto os prazos de 30 e 90 dias estabelecidos. A médio prazo, o desfecho dependerá do Congresso e dos tribunais, que decidirão o alcance real de qualquer preempção sobre leis estaduais.

A disputa não é apenas sobre quem regula IA, é sobre como equilibrar inovação com proteção do consumidor, e como usar políticas públicas de conectividade para induzir comportamentos no ecossistema tecnológico. A recomendação prática é clara, adotar desde já mecanismos robustos de gestão de risco, transparência e veracidade de outputs, porque, com ou sem preempção, essas serão as linhas mestras do que o mercado e os reguladores vão exigir.

Tags

regulação de IApolíticas públicasconectividadecomplianceEstados Unidos