PL 2.338/2023: O Marco Regulatório da Inteligência Artificial no Brasil e Seus Principais Pontos
Aprovado pelo Senado, o projeto de lei sobre IA aguarda análise na Câmara. Entenda os 5 pontos essenciais que todo advogado precisa conhecer.
O Marco Legal da Inteligência Artificial no Brasil
O Projeto de Lei 2.338/2023 representa a tentativa mais ambiciosa do legislador brasileiro de estabelecer um marco regulatório para os sistemas de inteligência artificial. Aprovado pelo Senado Federal, o projeto tramita atualmente na Câmara dos Deputados, onde aguarda designação de comissão especial para análise do mérito.
Contexto Histórico e Internacional
A proposta surge em um momento de intensa atividade regulatória global. A União Europeia implementou o AI Act, com aplicação plena prevista para agosto de 2026, estabelecendo classificação de risco para sistemas de IA e criando obrigações diferenciadas conforme a categorização do sistema. Os Estados Unidos, por sua vez, veem a proliferação de legislações estaduais sobre a matéria, criando um cenário fragmentado de compliance para empresas que operam em múltiplas jurisdições.
O Brasil busca posição intermediária entre os modelos americano e europeu, tentando equilibrar a promoção da inovação tecnológica com a proteção de direitos fundamentais. A Estratégia Brasileira de Inteligência Artificial, estabelecida pelo Decreto 10.373/2020, serviu de base para a elaboração do projeto, incorporando princípios de ética, transparência e accountability.
Classificação de Risco
O PL 2.338/2023 adota sistema de classificação de risco semelhante ao europeu, dividindo os sistemas de IA em categorias: risco inaceitável, alto risco, risco limitado e risco mínimo.
Sistemas de risco inaceitável são proibidos, incluindo sistemas de puntuación social, manipulação comportamental e vigilância em massa. Sistemas de alto risco incluem aqueles utilizados em decisões judiciais, acesso a serviços essenciais, gestão de infraestruturas críticas e educação. Para esses sistemas, o projeto estabelece requisitos rigorosos de documentação, rastreabilidade e auditoria.
Sistemas de risco limitado, como chatbots e geradores de conteúdo, ficam sujeitos a obrigações de transparência, com a necessidade de informar aos usuários que estão interagindo com sistema de IA. Sistemas de risco mínimo têm fiscalização branda, mantendo-se a liberdade de inovação.
Direitos Autorais e Treinamento de Modelos
O ponto de maior tensão no projeto é a questão dos direitos autorais relacionados ao treinamento de modelos de linguagem. A proposta determina que o uso de obras protegidas para treinamento de sistemas de IA exige autorização prévia dos titulares de direitos, estabelecendo exceção para fins de pesquisa e tratamento de textos e dados para fins de análise estatística.
Essa disposição representa avanço significativo para setores criativos, que argumentam que o uso massivo de conteúdos protegidos sem autorização constitui apropriação indevida de propriedade intelectual. Por outro lado, empresas de tecnologia sustentam que restrições severas poderiam comprometer o desenvolvimento de modelos competitivos no cenário global.
Governança e Responsabilidade
O projeto estabelece regime de responsabilidade diferenciado conforme a natureza do agente envolvido. Fabricantes de sistemas de IA têm responsabilidade objetiva pelo funcionamento dos sistemas, cabendo a eles demonstrar que cumpriram os requisitos técnicos e procedimentais estabelecidos. Usuários comerciais respondem pelos danos causados por uso inadequado ou por aplicações não autorizadas.
Para sistemas de alto risco, o projeto exige a designação de responsável pelo compliance, a manutenção de registros de logs e a implementação de mecanismos de supervisão humana. A ausência dessas medidas constitui infração, sujeitando infratores a multas que podem alcançar 2% do faturamento bruto anual no Brasil.
Sandbox Regulatório e Inovação
Visando estimular a inovação, o projeto cria mecanismos de sandbox regulatório, permitindo que empresas desenvolvam e testem sistemas de IA em ambiente controlado, com supervisão da autoridade regulatória. Durante a fase de teste, determinadas obrigações são suspensas, permitindo que o mercado explore aplicações inovadoras sem comprometer a segurança de usuários.
Perspectivas e Próximos Passos
O projeto ainda enfrenta debates significativos na Câmara dos Deputados. Pontos sensíveis incluem a extensão da fiscalização a sistemas desenvolvidos fora do Brasil, a definição de autoridades competentes para aplicação das sanções e o estabelecimento de mecanismos de recurso para empresas afetadas por decisões regulatórias.
O cenário indica que a regulamentação da inteligência artificial no Brasil deverá passar por processo legislativo longo, com possíveis alterações substantivas antes da aprovação final. Para operadores do direito, acompanhar attentamente a evolução do projeto representa oportunidade de posicionar-se estrategicamente em área que deberá demandar expertise especializado nos próximos anos.
A matéria configura relevante evolução no ordenamento jurídico brasileiro, estabelecendo princípios e regras que deberán orientar o desenvolvimento e a aplicação de tecnologias de inteligência artificial em todos os setores da economia e da administração pública.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)