Extraterritorialidade da IA: novo campo de batalha regulatório global
União Europeia, China e EUA projetam normas de inteligência artificial para além de suas fronteiras. Entenda o fenômeno e seus impactos para empresas brasileiras.
Introdução
A regulação da inteligência artificial está criando um fenômeno jurídico sem precedentes: múltiplas jurisdições projetando simultaneamente suas normas para além de suas fronteiras, gerando uma teia regulatória complexa em que empresas globais precisam navegar por regras conflitantes de Bruxelas, Pequim, Washington e São Paulo ao mesmo tempo.
Não se trata apenas da Europa tentando impor seus padrões ao mundo. Trata-se de um movimento global de afirmação regulatória em que cada grande economia busca estender seu alcance jurisdicional sobre uma tecnologia que, por natureza, ignora limites territoriais.
O AI Act da União Europeia
A Lei de Inteligência Artificial da União Europeia, em vigor desde agosto de 2024, com aplicação faseada até 2027, estabeleceu o tom ao determinar que empresas de qualquer lugar do mundo devem seguir suas regras se colocarem sistemas de IA no mercado europeu ou se seus sistemas produzirem efeitos relevantes no território da União.
Uma startup brasileira, por exemplo, desenvolvendo algoritmos de recomendação para um aplicativo usado em Lisboa, mesmo sem qualquer presença física na Europa, pode ser obrigada a nomear representantes locais, submeter-se a auditorias e cumprir requisitos de transparência europeus. As multas reforçam a seriedade: até 35 milhões de euros ou 7% do faturamento global anual para práticas proibidas — valores que não são mais retórica regulatória, mas risco econômico concreto.
A legislação chinesa
A China não ficou para trás. As emendas à Lei de Cibersegurança chinesa, em vigor desde janeiro de 2026, ampliaram de forma significativa o alcance extraterritorial das autoridades de Pequim, permitindo atingir organizações e indivíduos estrangeiros cujas atividades, ainda que ocorridas fora do território, sejam consideradas ameaça à segurança de rede da China, inclusive com medidas como bloqueio de acesso e congelamento de ativos.
Em paralelo, a legislação chinesa sobre IA generativa — as Medidas Interinas para Serviços de IA Generativa, vigentes desde agosto de 2023 — aplica-se a serviços prestados ao público na China, independentemente de onde a empresa provedora está sediada. Uma empresa americana desenvolvendo modelos de linguagem precisa adequar-se às regras chinesas de ética algorítmica e supervisão de conteúdo se quiser oferecer seus serviços em Xangai.
O cenário norte-americano
Nos Estados Unidos, a batalha regulatória assume contornos diferentes, mas igualmente extraterritoriais. A Califórnia, lar de muitas das maiores empresas de IA do mundo, aprovou em 2025 a SB-53, primeira lei estadual americana focada em modelos de IA de fronteira, sancionada no fim de setembro daquele ano.
A lei foi desenhada para aplicar-se a qualquer desenvolvedor que disponibilize modelos cobertos para uso na Califórnia, independentemente de onde a empresa está baseada ou onde o modelo foi treinado. Empresas europeias ou asiáticas que queiram que seus modelos sejam utilizados no Vale do Silício precisam submeter-se às exigências californianas de avaliação de risco, mitigação de cenários catastróficos e transparência técnica.
A ordem executiva do presidente Donald Trump, emitida em dezembro de 2025, complica ainda mais o cenário ao buscar estabelecer padrões federais que sirvam de base para contestar e eventualmente impedir leis estaduais consideradas excessivamente onerosas, criando incerteza sobre qual camada regulatória prevalecerá em última instância.
O Marco Regulatório Brasileiro
O Brasil discute seu próprio marco regulatório para inteligência artificial. O Projeto de Lei 2.338/2023, que tramita na Câmara dos Deputados, estabelece princípios, regras e obrigações para o desenvolvimento e uso de IA no território nacional. Enquanto a legislação não é aprovada, empresas nacionais já precisam lidar, ao mesmo tempo, com a Lei Geral de Proteção de Dados, com interpretações e reformas do Estatuto da Criança e do Adolescente voltadas à proteção de crianças no ambiente digital e com normas setoriais dispersas.
Cada novo instrumento normativo adiciona uma camada de complexidade para sistemas de IA que, por design, operam globalmente.
Conflitos e escolhas
O resultado prático dessa multiplicação de jurisdições extraterritoriais é que um único sistema de IA pode estar simultaneamente sujeito a regras europeias de transparência, controles chineses de conteúdo, requisitos californianos de avaliação de risco e normas brasileiras de proteção de dados.
Quando essas regras conflitam — e elas inevitavelmente conflitam em pontos críticos, como requisitos de reporte às autoridades, níveis de transparência técnica e limites de uso de dados —, as empresas enfrentam escolhas quase impossíveis: duplicar processos, manter arquiteturas técnicas distintas por mercado ou aceitar riscos de não conformidade que podem alcançar valores expressivos.
Considerações Finais
O fenômeno da extraterritorialidade regulatória em inteligência artificial representa um dos desafios mais complexos do direito internacional privado na atualidade. Para empresas brasileiras que desenvolvem ou utilizam sistemas de IA, a compreensão dessa teia normativa não é mais opção, mas necessidade estratégica.
O acompanhamento da evolução legislativa em múltiplas jurisdições, a adoção de práticas de compliance internacional e a participação em fóruns de discussão sobre governança de IA são passos essenciais para navegar nesse novo cenário regulatório global.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)