Welcome!

Unlock your personalized experience.
Sign Up

PL 2.338/2023: O Marco Regulatório da Inteligência Artificial no Brasil e Seus Principais Pontos

Aprovado pelo Senado, o projeto de lei sobre IA aguarda análise na Câmara. Entenda os 5 pontos essenciais que todo advogado precisa conhecer.

April 28, 2026 - 03:34
0 1
PL 2.338/2023: O Marco Regulatório da Inteligência Artificial no Brasil e Seus Principais Pontos

O Marco Legal da Inteligência Artificial no Brasil

O Projeto de Lei 2.338/2023 representa a tentativa mais ambiciosa do legislador brasileiro de estabelecer um marco regulatório para os sistemas de inteligência artificial. Aprovado pelo Senado Federal, o projeto tramita atualmente na Câmara dos Deputados, onde aguarda designação de comissão especial para análise do mérito.

Contexto Histórico e Internacional

A proposta surge em um momento de intensa atividade regulatória global. A União Europeia implementou o AI Act, com aplicação plena prevista para agosto de 2026, estabelecendo classificação de risco para sistemas de IA e criando obrigações diferenciadas conforme a categorização do sistema. Os Estados Unidos, por sua vez, veem a proliferação de legislações estaduais sobre a matéria, criando um cenário fragmentado de compliance para empresas que operam em múltiplas jurisdições.

O Brasil busca posição intermediária entre os modelos americano e europeu, tentando equilibrar a promoção da inovação tecnológica com a proteção de direitos fundamentais. A Estratégia Brasileira de Inteligência Artificial, estabelecida pelo Decreto 10.373/2020, serviu de base para a elaboração do projeto, incorporando princípios de ética, transparência e accountability.

Classificação de Risco

O PL 2.338/2023 adota sistema de classificação de risco semelhante ao europeu, dividindo os sistemas de IA em categorias: risco inaceitável, alto risco, risco limitado e risco mínimo.

Sistemas de risco inaceitável são proibidos, incluindo sistemas de puntuación social, manipulação comportamental e vigilância em massa. Sistemas de alto risco incluem aqueles utilizados em decisões judiciais, acesso a serviços essenciais, gestão de infraestruturas críticas e educação. Para esses sistemas, o projeto estabelece requisitos rigorosos de documentação, rastreabilidade e auditoria.

Sistemas de risco limitado, como chatbots e geradores de conteúdo, ficam sujeitos a obrigações de transparência, com a necessidade de informar aos usuários que estão interagindo com sistema de IA. Sistemas de risco mínimo têm fiscalização branda, mantendo-se a liberdade de inovação.

Direitos Autorais e Treinamento de Modelos

O ponto de maior tensão no projeto é a questão dos direitos autorais relacionados ao treinamento de modelos de linguagem. A proposta determina que o uso de obras protegidas para treinamento de sistemas de IA exige autorização prévia dos titulares de direitos, estabelecendo exceção para fins de pesquisa e tratamento de textos e dados para fins de análise estatística.

Essa disposição representa avanço significativo para setores criativos, que argumentam que o uso massivo de conteúdos protegidos sem autorização constitui apropriação indevida de propriedade intelectual. Por outro lado, empresas de tecnologia sustentam que restrições severas poderiam comprometer o desenvolvimento de modelos competitivos no cenário global.

Governança e Responsabilidade

O projeto estabelece regime de responsabilidade diferenciado conforme a natureza do agente envolvido. Fabricantes de sistemas de IA têm responsabilidade objetiva pelo funcionamento dos sistemas, cabendo a eles demonstrar que cumpriram os requisitos técnicos e procedimentais estabelecidos. Usuários comerciais respondem pelos danos causados por uso inadequado ou por aplicações não autorizadas.

Para sistemas de alto risco, o projeto exige a designação de responsável pelo compliance, a manutenção de registros de logs e a implementação de mecanismos de supervisão humana. A ausência dessas medidas constitui infração, sujeitando infratores a multas que podem alcançar 2% do faturamento bruto anual no Brasil.

Sandbox Regulatório e Inovação

Visando estimular a inovação, o projeto cria mecanismos de sandbox regulatório, permitindo que empresas desenvolvam e testem sistemas de IA em ambiente controlado, com supervisão da autoridade regulatória. Durante a fase de teste, determinadas obrigações são suspensas, permitindo que o mercado explore aplicações inovadoras sem comprometer a segurança de usuários.

Perspectivas e Próximos Passos

O projeto ainda enfrenta debates significativos na Câmara dos Deputados. Pontos sensíveis incluem a extensão da fiscalização a sistemas desenvolvidos fora do Brasil, a definição de autoridades competentes para aplicação das sanções e o estabelecimento de mecanismos de recurso para empresas afetadas por decisões regulatórias.

O cenário indica que a regulamentação da inteligência artificial no Brasil deverá passar por processo legislativo longo, com possíveis alterações substantivas antes da aprovação final. Para operadores do direito, acompanhar attentamente a evolução do projeto representa oportunidade de posicionar-se estrategicamente em área que deberá demandar expertise especializado nos próximos anos.

A matéria configura relevante evolução no ordenamento jurídico brasileiro, estabelecendo princípios e regras que deberán orientar o desenvolvimento e a aplicação de tecnologias de inteligência artificial em todos os setores da economia e da administração pública.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User