Welcome!

Unlock your personalized experience.
Sign Up

A guerra regulatória global da inteligência artificial: como jurisdições rivais disputam o controle da tecnologia

A multiplicação de marcos regulatórios com alcance extraterritorial cria um labirinto jurídico para empresas globais de tecnologia, com implicações para inovação, soberania e governança.

May 11, 2026 - 12:02
updated: 29 Minutos ago
0 0
A guerra regulatória global da inteligência artificial: como jurisdições rivais disputam o controle da tecnologia
Unsplash
Dirhoje
Dirhoje

O fenómeno sem precedentes das jurisdições sobrepostas

A regulação da inteligência artificial está criando um fenómeno jurídico sem precedentes na história da tecnologia: múltiplas jurisdições projetando simultaneamente suas normas para além de suas fronteiras territoriais, gerando uma teia regulatória complexa em que empresas globais precisam navegar por regras frequentemente conflitantes de Bruxelas, Pequim, Washington e São Paulo. Esse fenômeno, conhecido como extraterritorialidade regulatória, não é inteiramente novo no campo do direito, mas a escala, a velocidade e a sobreposição de normas que afetam sistemas de IA representam uma dinâmica qualitativamente diferente de qualquer desafio regulatório anterior.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

Especialistas em direito tecnológico e relações internacionais describem o momento atual como uma "batalha regulatória global" pela governança da inteligência artificial. Não se trata apenas de a Europa tentar impor seus padrões ao mundo, como ocorreu parcialmente com o Regulamento Geral de Proteção de Dados (RGPD). Trata-se de um movimento global de afirmação regulatória em que cada grande economia busca estender seu alcance jurisdicional sobre uma tecnologia que, por natureza, ignora limites territoriais. O resultado é um ambiente de incerteza jurídica para empresas, mas também uma disputa por influência normativa entre potências que querem definir o padrão global de como a IA deve operar.

AI Act europeu: o modelo de referência que o mundo observa

A Lei de Inteligência Artificial da União Europeia, em vigor desde agosto de 2024 com implementação faseada até 2027, estabeleceu o tom dessa disputa regulatória global. O regulamento determina que empresas de qualquer lugar do mundo devem seguir suas regras se colocarem sistemas de IA no mercado europeu ou se seus sistemas produzirem efeitos relevantes no território da União. Essa abordagem tem um nome técnico: extraterritorialidade regulatória. Na prática, significa que uma startup brasileira desenvolvendo algoritmos de recomendação para um aplicativo usado em Lisboa, mesmo sem qualquer presença física na Europa, pode ser obrigada a nomear representantes locais, submeter-se a auditorias e cumprir requisitos de transparência europeus.

As multas previsto no AI Act reforçam a seriedade com que o bloco trata o cumprimento: até 35 milhões de euros ou 7% do faturamento global anual para práticas proibidas, valores que representam risco econômico concreto e não apenas retórica regulatória. A partir de agosto de 2026, conforme noticiado por veículos especializados e confirmed by fontes oficiais da Comissão Europeia, entram em vigor as obrigações para sistemas de alto risco e para modelos de inteligência artificial de uso geral. Cada Estado-membro deve estabelecer, até 2 de agosto de 2026, pelo menos um sandbox regulatório de IA em nível nacional, criando um ambiente controlado para testes de conformidade. A estrutura de penalidades do AI Act excede em magnitude a do RGPD, estabelecendo três níveis de sanções conforme a gravidade da infração.

China e Estados Unidos: modelos rivais de controle

A China respondeu a essa dinâmica com sua própria estratégia de alcance extraterritorial. As emendas à Lei de Cibersegurança chinesa, em vigor desde janeiro de 2026, ampliaram de forma significativa o poder das autoridades de Pequim sobre atores estrangeiros. O texto permite atingir organizações e indivíduos não chineses cujas atividades, ainda que ocorridas fora do território da China, sejam consideradas ameaça à segurança de rede do país, incluindo medidas como bloqueio de acesso a serviços digitais e congelamento de ativos. Paralelamente, as Medidas Interinas para Serviços de IA Generativa, vigentes desde agosto de 2023, aplicam-se a serviços prestados ao público na China, independentemente de onde a empresa provedora está sediada.

Nos Estados Unidos, a batalha regulatória assume contornos diferentes, mas igualmente extraterritoriais. A Califórnia, sede de muitas das maiores empresas de IA do mundo, aprovou em 2025 a Lei SB-53, primeira lei estadual americana focada em modelos de IA de fronteira, sancionada no fim de setembro. A lei aplica-se a qualquer desenvolvedor que disponibilize modelos cobertos para uso na Califórnia, independentemente de onde a empresa está baseada ou onde o modelo foi treinado. Empresas europeias ou asiáticas que queiram que seus modelos sejam utilizados no Vale do Silício precisam submeter-se às exigências californianas de avaliação de risco, mitigação de cenários catastróficos e transparência técnica. A ordem executiva do presidente Donald Trump, emitida em dezembro de 2025, buscou estabelecer padrões federais que possam servir de base para contestar e eventualmente limitar leis estaduais consideradas excessivamente onerosas, criando incerteza adicional sobre qual camada regulatória prevalecerá.

As tensões entre proteção de dados e desenvolvimento de IA

Um tensão particularmente significativa é aquela entre os regimes de proteção de dados pessoais e o desenvolvimento de sistemas de IA. A Europa, que possui um dos regimes de proteção de dados mais rigorosos do mundo no RGPD, enfrenta agora o dilema de como conciliar a proteção de dados com a competitividade em IA. A Comissão Europeia começou a considerar revisões em partes centrais da legislação de proteção de dados, sob a justificativa de acelerar o desenvolvimento de inteligência artificial europeia. Especialistas alertam que um afrouxamento da proteção de dados pode criar um precedente perigoso e minar a própria filosofia do modelo europeu, que sustenta ser possível ter inovação e proteção simultaneamente.

O executivo europeo apresentou em novembro de 2025 o chamado Digital Omnibus, uma proposta de revisão que busca adiar parte das obrigações de sistemas de alto risco, reduzir exigências documentais para pequenas e médias empresas e reforçar a supervisão de modelos de propósito geral. Especialistas Consideram que essa revisão representa um reconhecimento de que a implementação do AI Act enfrenta desafios práticos de coordenação e de ferramentas de conformidade que não foram plenamente antecipados.

Brasil: entre a regulação em debate e a aplicação fragmentada

No Brasil, a discussão sobre o marco regulatório de inteligência artificial ainda tramita no Congresso Nacional. O Projeto de Lei nº 2.338/2023, que institui o Marco Regulatório de Inteligência Artificial, foi aprovado pelo Senado em votação simbólica em dezembro de 2024 e remetido à Câmara dos Deputados em março de 2025, onde permanece em análise. O projeto sigue linha próxima à europeia, baseada em risco, mas se arrasta há mais de três anos sem aprovação final. Paralelamente, o governo federal tem utilizado políticas de fomento como instrumento de regulação, como o Sistema Nacional para Desenvolvimento, Regulação e Governança de IA, e o Plano Brasileiro de Inteligência Artificial para Todos, que prevê investimentos de 23 bilhões de reais entre 2024 e 2028.

Em abril de 2026, o Ministério da Gestão e Inovação em Serviços Públicos (MGI) publicou a Portaria nº 3.485, que institui a Política de Governança de Inteligência Artificial no âmbito do ministério. A norma define princípios, diretrizes e responsabilidades para o desenvolvimento, a aquisição e o uso de aplicações de IA na administração pública federal, incluindo a previsão de supervisão humana proporcional aos riscos identificados. No entanto, empresas nacionais já precisam lidar simultaneamente com a Lei Geral de Proteção de Dados, com interpretações e reformas do Estatuto da Criança e do Adolescente voltadas à proteção de crianças no ambiente digital, e com normas setoriais dispersas, o que gera uma fragmentação que pode ser tão problemática quanto a ausência de um marco único.

A extraterritorialidade e seus efeitos sobre empresas brasileiras

Para empresas brasileiras que operam em mercados internacionais ou que lidam com dados de cidadãos europeus, a extraterritorialidade do AI Act representa um desafio prático imediato. A questão não é apenas teórica: uma empresa brasileira que ofereça serviços de IA para clientes na Europa está sujeita a multas europeias, independentemente de não ter escritório ou servidores no continente. Especialistas em direito tecnológico recomendam que empresas com operações globais comecem a construir estruturas internas de conformidade que possam funcionar em diferentes jurisdições simultaneamente, em vez de esperar a definição completa dos marcos regulatórios de cada país.

O advogado André Zanatta, sócio da área de Tecnologia, Privacidade, IA e Law Enforcement do escritório Felsberg Advogados, alerta que "o risco de insegurança jurídica não vem só da falta ou da mudança da lei, mas também de empresas que esperam a lei sair para só então se organizar". Segundo ele, empresas que usam IA no Brasil já estão expostas à LGPD, ao Código de Defesa do Consumidor, a regras setoriais, a questões de propriedade intelectual, a deveres de informação e a responsabilidade civil. "O mercado já entendeu que publicar princípios éticos no site não resolve", completou Zanatta em entrevista à Globo.

Contrapontos: os limites e as críticas a essa fragmentação regulatória

A narrativa da "batalha regulatória global" como conflito entre modelos rivais de governança tem seus críticos. Alguns analistas argumentam que o problema não é a multiplicidade de jurisdições em si, mas a falta de mecanismos de coordenação entre elas. Organizações internacionais como a OCDE e a UNESCO têm buscado atuar como instâncias de convergência normativa, publicando diretrizes e princípios que podem servir como base para entendimentos comuns. A Recomendação sobre Ética em Inteligência Artificial da UNESCO, adotada em 2021, representa um esforço nesse sentido, embora careça de força vinculante.

Há também quem questione se a abordagem regulatória europeia, baseada em risco, é a mais adequada para lidar com uma tecnologia cujo desenvolvimento ainda é jovem e cujas consequências não são plenamente compreendidas. Críticos argumentam que regulação excessiva pode sufocar a inovação e consolidar a vantagem de empresas já estabelecidas que têm recursos para arcar com custos de conformidade. Por outro lado, defensores do modelo europeu sustentam que a ausência de regulação cria seus próprios riscos, permitindo que sistemas de IA causem danos a pessoas e grupos sem qualquer responsabilização efetiva.

Os desafios práticos de compliance global

Na prática, o resultado dessa multiplicação de jurisdições extraterritoriais é que um único sistema de IA pode estar simultaneamente sujeito a regras europeias de transparência, controles chineses de conteúdo, requisitos californianos de avaliação de risco e normas brasileiras de proteção de dados. Quando essas regras conflitam, como inevitavelmente ocorrerá em pontos críticos como requisitos de reporte às autoridades, níveis de transparência técnica e limites de uso de dados, as empresas enfrentam escolhas quase impossíveis: duplicar processos, manter arquiteturas técnicas paralelas ou simplesmente abandonar certos mercados.

Considere a cadeia de valor típica de um sistema de IA moderno: o treinamento do modelo acontece no Brasil, utilizando infraestrutura de nuvem localizada em data centers nos Estados Unidos, alimentado por dados coletados de múltiplas fontes internacionais; a integração e o desenvolvimento de aplicações ocorrem em uma equipe na Índia; e os usuários finais estão espalhados pela Europa, Ásia e América Latina. Cada elo dessa cadeia pode estar sujeito a uma jurisdição diferente, com regras que por vezes se contradizem. Não há, atualmente, nenhum mecanismo eficaz de resolução de conflitos entre normas regulatórias de diferentes países quando se trata de inteligência artificial.

Cenários e síntese: é possível coordenar a governança global da IA?

O cenário mais provável no curto e médio prazo é a continuidade da fragmentação regulatória, com sobreposições e conflitos ainda não resolvidos. Não se espera uma convergência rápida para um padrão global único, dados os interesses divergentes das principais potências e as diferenças filosóficas entre os modelos regulatórios. No entanto, a própria experiência mostra que, com o tempo, certos padrões tendem a se consolidar como referência, muitas vezes por efeito de mercado: empresas globais adaptam seus produtos ao mercado mais exigente e acabams por aplicar esses padrões globalmente por simplicidade operacional.

O risco mais significativo desse cenário fragmentado não é apenas o custo de conformidade para empresas, mas a possibilidade de que a governança da IA seja definida não por debates democráticos sobre valores e direitos, mas pela capacidade de cada jurisdição de projetar poder econômico e político. Se a União Europeia conseguir fazer seu modelo funcionar na prática, ele pode se tornar o padrão de facto, não por mérito intrínseco, mas por ser o mercado mais acessível. Da mesma forma, se os Estados Unidos lograrem manter seu domínio tecnológico sem regulação doméstica significativa, seu modelo de laissez-faire pode prevalecer. O desafio para países como o Brasil é encontrar espaços de influência nesse jogo de potências, protegendo interesses nacionais sem ficarrefé a um modelo alheio.

A guerra regulatória global da inteligência artificial: como jurisdições rivais disputam o controle da tecnologia
Unsplash

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje