Welcome!

Unlock your personalized experience.
Sign Up

A guerra das jurisdições: como a regulação da inteligência artificial se tornou um campo de batalha global

União Europeia, China, Estados Unidos e Brasil projetam simultaneamente suas normas de inteligência artificial para além de suas fronteiras. O resultado é uma teia regulatória complexa que desafia empresas, reguladores e o próprio conceito de soberania territorial.

May 07, 2026 - 12:12
0 2
A guerra das jurisdições: como a regulação da inteligência artificial se tornou um campo de batalha global
Dirhoje
Dirhoje

O fim da fronteira na era algorítmica

A regulação da inteligência artificial está gerando um fenômeno jurídico sem precedentes na história do direito internacional: múltiplas jurisdições projetando simultaneamente suas normas para além de suas fronteiras territoriais, criando uma teia regulatória emaranhada da qual empresas globais precisam participar sem que nenhum mapa claro exista para navegar. Não se trata apenas de a União Europeia tentar exportar seus padrões, como fez com o Regulamento Geral de Proteção de Dados. Trata-se de um movimento global de afirmação regulatória no qual cada grande economia — europeia, asiática ou americana — busca estender seu alcance jurisdicional sobre uma tecnologia que, por natureza, ignora limites territoriais.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

Uma startup brasileira que desenvolve algoritmos de recomendação para um aplicativo usado em Lisboa, para citar um exemplo concreto, pode, sem ter qualquer presença física na Europa, ficar sujeita às regras do AI Act europeu: obrigações de nomear representante legal no bloco, submeter-se a auditorias conduzidas por organismos europeus e cumplir requisitos de transparência técnica que não encontram paralelo na legislação brasileira. As multas aplicáveis — até 35 milhões de euros ou 7% do faturamento global anual — não são retórica regulatória; são risco econômico concreto capaz de inviabilizar modelos de negócio construídos sem considerar essa camada de conformidade.

O AI Act europeu: modelo de referência ou balão de ensaio?

A Lei de Inteligência Artificial da União Europeia, em vigor desde agosto de 2024 com aplicação faseada até 2027, estabeleceu o tom da corrida regulatória global. O AI Act adota uma abordagem baseada em risco, que classifica sistemas de IA em categorias que vão de risco mínimo a risco inaceitável, proibindo aplicações que envolvam manipulação subliminar, pontuação social de cidadãos ou vigilância em massa em espaços públicos. Para sistemas de alto risco — definidos por lista setorial que inclui saúde, educação, justiça criminal, emprego e gestão de infraestrutura crítica —, a regulamentação exige documentação técnica exaustiva, avaliação de impacto de direitos fundamentais antes da implementação, supervisão humana contínua e mecanismos de reporte de incidentes.

A disposição mais discuteda do AI Act, e a que gera mais impacto extraterritorial, é a regra de localização dos efeitos. O regulamento determina que empresas de qualquer lugar do mundo ficam sujeitas às suas regras se colocarem sistemas de IA no mercado europeu ou se seus sistemas produzirem efeitos relevantes no território da União. Essa formulação é deliberadamente ampla: não exige presença física, sede social ou filial — basta que o sistema afete usuários locatedos no bloco. Para empresas brasileiras com ambições de servir clientes no Velho Continente, isso significa que o compliance regulatório europeu precisa ser embutido na arquitetura do produto desde sua concepção, não adicionado como camada posterior.

Os custos de conformidade e a barreira para emergentes

A estrutura de conformidade do AI Act impõe obrigações que, na prática, funcionam como barreiras de mercado. A exigência de avaliações de impacto de direitos fundamentais para sistemas de alto risco, conduzidas por profissionais qualificados e documentadas de forma auditável, representa custo significativo mesmo para empresas europeias estabelecidas. Para startups brasileiras que operam com equipes enxutas e sem departamentos jurídicos dedicados, atender a esses requisitos pode consumir recursos desproporcionais em relação ao tamanho do mercado europeu acessível.

Esse efeito distributivo perverso — que tende a favorecer grandes conglomerados tecnológicos já estabelecidos em capacidade de compliance — é reconhecido pela própria literatura regulatória europeia, que tenta mitigar o problema por meio de mecanismos de sandbox regulatório e apoio a pequenas empresas. A eficácia dessas medidas compensatórias ainda é, contudo, incerta e objeto de avaliação empírica em curso.

China: soberania digital como projeto geopolítico

A China respondeu à regulação europeia com estratégia própria, que combina controle doméstico rígido e projeção internacional seletiva de suas normas. As emendas à Lei de Cibersegurança chinesa, em vigor desde janeiro de 2026, ampliaram significativamente o alcance extraterritorial das autoridades de Pequim, permitindo que organizações e indivíduos estrangeiros sejam alcançados quando suas atividades, ainda que ocorridas fora do território chinês, sejam consideradas ameaça à segurança de rede da China — incluindo medidas como bloqueio de acesso a plataformas e congelamento de ativos.

Em paralelo, as Medidas Interinas para Serviços de IA Generativa, vigentes desde agosto de 2023, aplicam-se a serviços prestados ao público na China independentemente de onde a empresa provedora está sediada. Uma empresa americana que deseje oferecer seus modelos de linguagem a usuários em Xangai precisa adequar-se simultaneamente às regras chinesas de ética algorítmica, requisitos de supervisão de conteúdo e obrigações de armazenamento local de dados — tudo isso sem ter qualquer presença física na China e potencialmente em conflito com obrigações legais de seu país de origem.

O dilema das empresas multinacionais

O cenário prático que se desenha para empresas globais de tecnologia é o de uma sobreposição de jurisdições que, em pontos críticos, conflitam entre si. O regime europeu exige transparência máxima sobre como os sistemas de IA tomam decisões e impõe limitações severas ao uso de dados biométricos para vigilância. O regime chinês, ao inverso, exige conformidade com controles de conteúdo e armazenamento local, além de disponibilidade para cooperação com autoridades de segurança. O regime americano opera sob regras setoriais fragmentadas, com iniciativas estaduais que, como a lei californiana SB-53 aprovada em 2025, impõem obrigações próprias sobre modelos de IA de fronteira.

Quando essas regras conflitam — e elas inevitavelmente conflitam em pontos como requisitos de reporte às autoridades, níveis de transparência técnica e limites de uso de dados —, as empresas enfrentam escolhas que a literatura chama de "dilemas de conformidade incompatível": duplicar processos e manter arquiteturas paralelas para cada jurisdição, aceitar o risco de sanções em uma jurisdição para cumplir com outra, ou simplesmente abandonar certos mercados. Nenhuma dessas opções é satisfatória do ponto de vista jurídico ou comercial.

Estados Unidos: federalismo regulatório em competição

O cenário americano ocupa uma posição singular nesse mosaico global. A ausência de uma lei federal abrangente sobre inteligência artificial — em parte reflexo das divisões políticas internas e da força do lobby tecnológico no Capitólio — contrasta com a crescente atividade legislativa em nível estadual. A Califórnia, que abriga muitas das maiores empresas de IA do mundo, aprovou em 2025 a SB-53, primeira lei estadual americana focada em modelos de IA de fronteira, com aplicação a qualquer desenvolvedor que disponibilize modelos cobertos para uso na Califórnia, independentemente de onde a empresa está baseada ou onde o modelo foi treinado.

A ordem executiva emitida pelo presidente Donald Trump em dezembro de 2025 buscou estabelecer padrões federais como base para restringir leis estaduais consideradas excessivamente onerosas, criando uma dinâmica de tensão entre o nível federal e o nível estadual que gera incerteza sobre qual camada regulatória prevalecerá em última instância. Essa incerteza é particularmente problemática para empresas estrangeiras que tentam mapear suas obrigações de compliance nos Estados Unidos: não sabem, com antecedência, se devem se orientar pela regra federal ou pela regra californiana — ou por ambas, em regime de cumulatividade.

Iniciativas internacionais de convergência

Em resposta à fragmentação, iniciativas multilaterais buscam criar terreno comum mínimo entre os diversos regimes. Os Princípios de IA da OCDE, adotados em 2019 e atualizados desde então, estabelecem padrões técnicos compartilhados e princípios de governança responsável que funcionam como referência para jurisdições diversas. O Hiroshima AI Process, lançado pelo G7, buscou articular princípios de interoperabilidade entre regimes regulatórios de países industrializados. A UNESCO publicou em 2021 sua Recomendação sobre Ética em Inteligência Artificial, que serve de fundamento para esforços regulatórios em diversos países do Sul Global, incluindo o Brasil.

Essas iniciativas não têm, contudo, força vinculante. Funcionam como soft law — normas de persuasão moral e política, sem sanções associadas ao seu descumprimento — e sua eficácia depende da vontade de cada jurisdição de incorporá-las em seus marcos legais internos. A experiência histórica com outros domínios de soft law internacional sugere que a convergência tende a ocorrer mais por necessidade econômica do que por concertação política: empresas forçam harmonização de fato ao exigir de seus fornecedores globais conformidade simultânea com múltiplos regimes, independentemente de tratados formais.

O Brasil no tabuleiro: atrasado, mas não fora do jogo

O Brasil participa dessa competição regulatória global em condição de observador ativo: discute seu próprio marco legal, conforme descrito no artigo sobre o PL 2.338/2023, enquanto empresas nacionais já operam sob a influência simultânea de múltiplos regimes extraterritoriais. A LGPD brasileira, fortemente inspirada no modelo europeu do GDPR, já projeta alguma influência extraterritorial ao estabelecer que empresas de qualquer lugar do mundo que tratem dados de brasileiros ficam sujeitas à lei brasileira — o que, em essência, replica a lógica de localização dos efeitos adotada pelo regulamento europeu.

Essa simetria entre LGPD e GDPR tem um efeito prático: empresas que já se adequaram ao regime europeu frequentemente constatam que grande parte de seu compliance também atende aos requisitos brasileiros. Contudo, a convergência não é completa. Divergências pontuais — como o regime de transferência internacional de dados, mais permissivo na LGPD do que no GDPR em certos aspectos — criam zonas de tensão que exigem análise específica. E, à medida que a União Europeia avança com requisitos específicos de IA que vão além da proteção de dados — como proibições de sistemas de reconhecimento facial em espaços públicos ou obrigações de divulgação de conteúdo gerado por IA —, a distância entre os regimes tende a aumentar novamente.

A questão da soberania digital brasileira

No cenário geopolítico mais amplo, a extraterritorialidade regulatória da IA levanta questões sobre soberania digital que transcendem a mera conformidade corporativa. A soberania territorial, conceito fundacional do direito internacional clássico, é erodida quando normas jurídicas dependem, para sua eficácia, de mecanismos de aplicação que pressupõem controle sobre infraestrutura, dados e indivíduos localizados além das fronteiras nacionais.

O Brasil, historicamente, ocupa posição de peso no tabuleiro da governança digital global por seu tamanho de mercado e por sua tradição de ativismo em fóruns multilaterais. A participação brasileira no desenvolvimento dos Princípios de IA da OCDE e nos debates da UNESCO sobre ética em IA reflete essa vocação. Contudo, a ausência de um marco legal interno aprovado dificulta a capacidade do país de participar das negociações internacionais sobre padrões tecnológicos com credencial próprio: sem lei própria, o Brasil tende a importar regras formuladas em outros contextos, ainda que participe de sua discussão em fóruns multilaterais.

Contrapontos: a fragmentação como risco e como oportunidade

A fragmentação regulatória global é, sob certainos ângulos, um resultado desejável da diversidade de valores e sistemas políticos que caracterizam a comunidade internacional. A União Europeia prioriza a proteção de direitos fundamentais e a regulação preventiva; os Estados Unidos privilegiam a inovação e a liberdade de mercado; a China equilibra desenvolvimento tecnológico com controle político do espaço digital. Impor um modelo único de regulação de IA seria, sob essa perspectiva, uma forma de imperialismo regulatório que silenciaria vozes e preferências legítimas de sociedades com trajetórias históricas distintas.

Por outro lado, a ausência de mecanismos de coordenação efetiva gera riscos reais. Startups de mercados emergentes que não conseguem arcar com os custos de conformidade múltipla ficam excluídas de mercados lucrativos, ampliando assimetrias de desenvolvimento já existentes. Empresas que operam em regime de compliance isolado — cumprindo regras de cada jurisdição separadamente, sem arquitetura integrada — gastam recursos em redundâncias que poderiam ser dedicados a inovação. E a proliferação de regras conflitantes pode gerar, paradoxalmente, um ambiente de menor proteção efetiva: empresas escolhem a jurisdição mais permissiva como piso de compliance, e não a mais protetiva como teto, erodindo padrões de proteção ao redor.

Cenários de evolução: convergência forçada ou proliferação sustentada

Os cenários mais prováveis para os próximos anos oscilam entre dois extremos. No cenário de convergência forçada, os custos crescentes de conformidade múltipla — somados à pressão de empresas que já operam em escala global — eventualmente impõem harmonização de facto, seja por meio de tratados de equivalência regulatória entre blocos, seja por meio de adoção unilateral de padrões internacionais por jurisdições menores que buscam facilitar o comércio. Iniciativas como o sistema de cartas de adequação do GDPR europeiam, que reconhece que regimes de proteção de dados de outros países são equivalentes ao seu, podem servir de modelo para arranjos análogos em matéria de IA.

No cenário de proliferação sustentada, a fragmentação regulatória se perpetua, com empresas aprendendo a operar em contextos de incerteza permanente e regulação diferenciada por mercado. Esse cenário não é necessariamente catastrófico: grandes empresas de tecnologia já operam dessa forma em domínios como tributação internacional, onde a ausência de consenso global sobre preços de transferência não impediu o funcionamento de mercados, mas gerou custos de transação significativos e assimetrias de competitividade entre empresas de diferentes origens.

Para o Brasil, a lição mais clara desse panorama é que a conformidade regulatória em matéria de IA deixou de ser problema doméstico e se tornou questão de inserção internacional. Empresas brasileiras que pretendem operar além das fronteiras nacionais precisam incorporar, desde já, a capacidade de navegar múltiplos regimes simultâneos — e, para isso, dependem de marcos legais internos claros que definam seu piso de compliance e, a partir dele, permitam construir as camadas adicionais de adequação exigidas por cada mercado de destino.


Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje