Inteligência Artificial: análise comparativa entre o PL 2338/2023 brasileiro e o AI Act europeu
Brasil e União Europeia adotam abordagens distintas mas complementares na regulação da inteligência artificial.
Introdução
A regulação da inteligência artificial constitui um dos desafios regulatórios mais significativos da atualidade jurídica. O Brasil, com o Projeto de Lei nº 2338/2023, e a União Europeia, com o AI Act, representam dois modelos paradigmáticos de governança algorítmica que, apesar de inspirados por princípios semelhantes, divergem em pontos cruciais com consequências práticas relevantes para operadores jurídicos e empresas de tecnologia.
Esta análise comparada permite identificar convergências e divergências entre os marcos regulatórios, extraindo lições aplicáveis ao aprimoramento da legislação brasileira e à compreensão do cenário global de governança da inteligência artificial.
Marco Regulatório Brasileiro: PL 2338/2023
O Projeto de Lei nº 2338/2023, de autoria do presidente do Senado Federal, Rodrigo Pacheco, tramita atualmente na Câmara dos Deputados após aprovação unânime pelo Senado em dezembro de 2024. O texto consolidado estabelece princípios, direitos e obrigações para o desenvolvimento, fomento e uso ético e responsável da inteligência artificial no Brasil.
O PL 2338/2023 adota como centralidade a pessoa humana, estabelecendo como fundamento a proteção da dignidade humana, os direitos fundamentais e a não discriminação. O projeto cria um sistema de governança de IA baseado em risco, classificando sistemas em diferentes categorias conforme o potencial de danos a direitos fundamentais.
Estrutura e Principais Provisões
O marco legal brasileiro estabelece um sistema de governança multinível, com participação de órgãos reguladores setores e uma autoridade central. Destacam-se as seguintes disposições:
A obrigatoriedade de avaliação de conformidade para sistemas de IA de alto risco, incluindo requisitos de transparência, explicabilidade e auditabilidade. A criação de um sandbox regulatório para inovação em inteligência artificial, permitindo testes controlados de novos sistemas em ambiente supervisionado. A previsão de direitos dos titulares de dados afetados por decisões automatizadas, incluindo o direito à explicação e à revisão humana.
AI Act: O Modelo Europeu
O AI Act, aprovado pela União Europeia em 2024, representa o mais abrangente marco regulatório de inteligência artificial do mundo. O regulamento establece uma estrutura de governança baseada em risco, proibindo expressamente certas práticas de IA e impondo obrigações proporcionais aos demais sistemas.
A abordagem europeia distingue-se pela granularidade da classificação de riscos e pela extensão das obrigações de transparência. Sistemas de IA são classificados em quatro categorias: risco inaceitável (proibidos), alto risco, risco limitado e risco mínimo.
Proibições e Restrições
O AI Act proíbe expressamente práticas de IA consideradas incompatíveis com valores europeus, incluindo sistemas de puntuação social, manipulação subliminar e exploração de vulnerabilidades. Estes sistemas não podem ser desenvolvidos, comercializados ou utilizados em território europeu.
Para sistemas de alto risco, o regulamento estabelece requisitos stringent de conformidade, incluindo sistemas de gestão de risco, governança de dados, documentação técnica, logging, transparência, supervisão humana e robustness. A não conformidade acarreta sanções que podem alcançar 35 milhões de euros ou 7% do faturamento global.
Análise Comparativa: Convergências
Apesar das diferenças estruturais, PL 2338/2023 e AI Act compartilham fundamentos comuns que refletem o consenso internacional emergente sobre governança da inteligência artificial.
Ambos os instrumentos adotam abordagem baseada em risco como princípio estruturante da regulação. A classificação de sistemas conforme o potencial de danos permite concentração de esforços regulatórios nos sistemas que efetivamente oferecem riscos à rights fundamentais, evitando excessiva oneração de aplicações de baixo risco.
Outro ponto de convergência é a ênfase na transparência e explicabilidade. Ambos os marcos reconhecem a importance de que operadores de sistemas de IA informem aos afetados quando interagem com sistemas automatizados, proporcionando explicações sobre decisões que impactem significativamente os indivíduos.
Divergências e Implicações Práticas
As diferenças entre os marcos regulatórios brasileiro e europeu produzem implicações práticas relevantes para empresas que operam em ambas as jurisdições.
A primeira divergência significativa reside na estrutura de aplicação territorial. O AI Act possui aplicação extraterritorial expressa, alcançando sistemas desenvolvidos fora da União Europeia que produzam efeitos no mercado europeu. O PL 2338/2023, em sua versão atual, não contempla explicitamente esta extensão, gerando incertezas sobre o tratamento de sistemas desenvolvidos no Brasil para uso internacional.
Outra divergência importante refere-se ao tratamento de sistemas de propósito geral. O AI Act estabelece obrigações específicas para modelos de IA de propósito geral e sistemas de IA foundation, categoria não expressamente regulada no PL brasileiro. Esta lacuna pode gerar dificuldades de compliance para empresas brasileiras que desenvolvam ou utilizem modelos de linguagem e outros sistemas de propósito geral.
Governança e Estrutura Institucional
O modelo de governança também apresenta diferenças relevantes. O AI Act estabelece uma estrutura europeia de governança com papéis definidos para autoridades nacionais e instâncias europeias. O PL brasileiro propõe arranjo mais descentralizado, com coordenação entre órgãos reguladores setores e uma autoridade central a ser definida posteriormente.
A definição posterior da autoridade central foi criticada por representantes do setor tecnológico, que argumentam que a incerteza institucional compromete o planejamento de compliance de longo prazo. Defensores da abordagem argumentam que a flexibilidade permite adaptação às especificidades de diferentes setores.
Implicações para Empresas Brasileiras
Empresas que operam em ambas as jurisdições enfrentam o desafio de naviguer em ambientes regulatórios distintos. O compliance dual exige compreensão aprofundada de ambos os marcos e, em muitos casos, a adoção da standard mais exigente como parâmetro global.
Sistemas de IA desenvolvidos no Brasil para exportação ao mercado europeu deverão observar tanto o PL 2338 quanto o AI Act, especialmente se classificados como de alto risco ou sujeitos às proibições do regulamento europeu. A asimetrisa regulatória pode configurar vantagem competitiva para empresas europeias no mercado brasileiro, caso o marco nacional imponha obrigações menos onerosas.
Perspectivas Futuras
A evolução dos marcos regulatórios brasileiro e europeu continuará sendo influenciada por desenvolvimentos tecnológicos, pressões políticas e experiência de implementação. O intercâmbio de experiências entre jurisdições pode contribuir para o aprimoramento de ambas as abordagens.
O Brasil, ao posicionar-se como liderança regulatória na América Latina, tem opportunity de shaped o debate regional sobre governança da IA. A articulação com parceiros sul-americanos pode levar à convergência de standards na região, facilitando o comércio digital e a cooperation tecnológica.
Considerações Finais
A análise comparativa entre o PL 2338/2023 e o AI Act revela que, apesar das diferenças estruturais, ambos os marcos refletem o compromisso com uma inteligência artificial que respeite direitos fundamentais, promova a transparência e assegure a supervisão humana.
A divergência mais significativa reside na aplicação territorial e no tratamento de sistemas de propósito geral, pontos que demandarão atenção do legislador brasileiro. O aprendizado com a implementação do AI Act na Europa pode informer ajustes no marco nacional, contribuindo para uma regulação equilibrada que promotion innovation sem comprometer a proteção de direitos.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)