Welcome!

Unlock your personalized experience.
Sign Up

Regulacao da inteligencia artificial no Brasil: o PL 2338, o PL 6237 e as tensoes entre inovacao, soberania e protecao de direitos

O Brasil avança para uma governanca federal de IA com dois projetos de lei em tramitacao simultanea, enquanto o mercado ja se antecipa as regras e levanta questoes sobre concentracao de poder regulatorio, soberania tecnologica e os limites da implementacao pratica.

May 06, 2026 - 20:32
0 0
Regulacao da inteligencia artificial no Brasil: o PL 2338, o PL 6237 e as tensoes entre inovacao, soberania e protecao de direitos
Dirhoje
Dirhoje

O marco regulatorio se aproxima, mas o caminho ainda esta aberto

O Brasil se aproxima de um marco regulatorio concreto para sistemas de inteligência artificial depois de anos de debate. O PL 2338/2023, que estabelece princípios, direitos, deveres e responsabilidades para o desenvolvimento e uso de IA no país, foi aprovado pelo Senado Federal em dezembro de 2024 e aguarda votação final na Câmara dos Deputados. Paralelamente, em dezembro de 2025, o Poder Executivo enviou ao Congresso o PL 6237/2025, que institui o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial. Os dois projetos tramitam conjuntamente e definem a arquitetura institucional que ordenará o setor no médio prazo.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

Apesar de ainda não ter sido convertido em lei, o texto do PL 2338 já produz impactos concretos. O mercado passou a tratá-lo não como um evento futuro, mas como parâmetro imediato de preparação estratégica. Em um ambiente corporativo marcado por automação crescente, dados em escala e decisões orientadas por algoritmos, a confiança – de consumidores, investidores e reguladores – emergiu como ativo central. O marco legal funciona como referência para políticas internas de empresas, base para avaliação de risco jurídico e sinal regulatório para investimentos em IA.

A arquitetura regulatoria proposta pelo PL 2338/2023

O texto aprovado pelo Senado estabelece uma arquitetura regulatória baseada na classificação de sistemas de IA por grau de risco, modelo inspirado em iniciativas internacionais, especialmente o AI Act europeu, mas adaptado à realidade institucional e econômica brasileira. No centro do projeto está a proibição de práticas consideradas de risco excessivo, como sistemas que violem direitos fundamentais ou promovam discriminação sistemática. Os sistemas de alto risco, por sua vez, poderão operar mediante cumprimento de exigências rigorosas de governança, documentação, auditoria e monitoramento contínuo.

O projeto cria também direitos claros aos afetados por decisões automatizadas, incluindo o direito à explicação sobre decisões tomadas por IA e o direito de contestar resultados produced by sistemas algorítmicos. A fiscalização ficaria a cargo do Sistema Nacional de Regulação e Governança de IA (SIA), sob coordenação estratégica da Autoridade Nacional de Proteção de Dados (ANPD). A expectativa Política, segundo sinalizações do início de 2026, era de que a matéria avançasse no início do ano legislativo, com possibilidade de sanção no primeiro semestre. Caso a Câmara altere substancialmente o texto, ele retornará ao Senado para nova deliberação.

Multas e obrigacoes para sistemas de alto risco

As penalidades previstas no projeto incluem multas de até cinquenta milhões de reais para empresas que descumpram as obrigações estabelecidas, especialmente no caso de sistemas classificados como de alto risco. As obrigações para esses sistemas incluem supervisão humana obrigatória, avaliação de impacto algorítmico antes da implementação, transparência sobre o uso de IA, auditoria periódica de viés e mitigação de resultados discriminatórios, além de revisão externa em casos específicos e documentação completa do funcionamento do sistema.

Esses requisitos representam mudanças significativas para empresas que já utilizam IA em processos decisórios sensíveis, como análise de crédito, triagem de seguros, apoio a decisões trabalhistas, diagnóstico médico e seleção de pessoal. A transição de um ambiente com obrigações limitadas para um regime de compliance estruturado exigirá investimentos em governança, documentação e monitoramento que muitas organizações ainda não possuem.

O PL 6237/2025 e a structura institucional proposta

Em dezembro de 2025, o Poder Executivo apresentou o PL 6237/2025 para estruturar a governança nacional de IA, instituindo o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial. A proposta foi apensada ao PL 2338/2023 na Câmara dos Deputados, o que significa que ambos serão analisados conjuntamente pela Comissão Especial responsável pelo tema. O CGI.br, núcleo de estudos da sociedade civil dedicado à governança da internet no Brasil, publicou nota técnica sobre o projeto em janeiro de 2026, sinalizando que a sociedade civil tomou parte no debate sobre o desenho institucional proposto.

O Sistema Nacional previsto no PL 6237/2025 propõe uma estrutura de governança multi-institucional, com participação de diferentes órgãos do poder público, academia e setor privado. A proposta levanta questões sobre concentração de poder decisório, financiamento das atividades de regulação e coordenação entre órgãos que já possuem competências sobre dados e tecnologia. A ANPD, que coordena o SIA segundo o PL 2338, acumularia também atribuições no âmbito do Sistema Nacional proposto pelo PL 6237, o que pode gerar tensões entre as duas estruturas normativas.

A perspectiva do CNJ e a regulacao do judiciary

Antes mesmo da aprovação do marco legal federal, o Poder Judiciário já possuía diretrizes próprias para uso de IA. O Conselho Nacional de Justiça é frequentemente citado em estudos internacionais como o único órgão de cúpula do Judiciário em país de língua portuguesa com regulação própria e estruturada para sistemas de IA. As diretrizes do CNJ abrangem transparência, rastreabilidade, auditoria e responsabilidade no uso de sistemas automatizados, especialmente em atividades sensíveis como triagem processual, apoio à decisão e análise de dados judiciais.

Esse pioneirismo do Judiciário brasileiro sinaliza ao setor privado que governança algorítmica não deve ser tratada como opcional. Empresas que desenvolvem, fornecem ou utilizam soluções de IA – especialmente aquelas que atuam junto ao poder público ou em setores regulados – precisarão demonstrar alinhamento com padrões elevados de ética, transparência e controle de risco, independentemente do que estabelecer o marco legal federal. A existência prévia de normas setoriais pode facilitar a transição para o regime geral, mas também cria camadas de exigência que empresas menores podem dificuldade para atender.

O mercado se antecipa e as empresas se adaptam antes da lei

Dados de mercado indicam que, em 2026, mais de setenta por cento das grandes empresas brasileiras já utilizam algum tipo de sistema de IA em processos decisórios ou operacionais sensíveis, especialmente análise de risco, automação de atendimento, prevenção a fraudes e apoio à tomada de decisão gerencial. Esse nível de adoção elevou significativamente a exposição a riscos jurídicos, reputacionais e regulatórios, tornando insuficiente a abordagem puramente experimental que predominou nos anos anteriores.

Enquanto o processo legislativo segue seu curso, empresas não estão esperando a sanção para agir. Setores regulados, organizações intensivas em dados e instituições com alto grau de automação passaram a tratar o marco legal da IA como parâmetro inevitável, ajustando estruturas de governança, políticas internas, contratos com fornecedores e controles de uso de dados. O objetivo é evitar riscos de transição abrupta, passivos futuros e interrupções operacionais quando o marco entrar em vigor de forma definitiva. Esse fenômeno de antecipação regulatória é comum em ambientes de mudança normativa significativa e reflete a maturidade dos departamentos jurídicos e de compliance de grandes empresas brasileiras.

Os cenários e as incertezas do processo legislativo

A análise do processo regulatório brasileiro para IA apresenta cenários distintos. No cenário de avanço rápido, o PL 2338/2023 é aprovado pela Câmara com mínimas alterações, o PL 6237/2025 é incorporado ao texto final, e o Brasil dispões de marco legal operacional ainda no primeiro semestre de 2026, tornando-se o primeiro país da América Latina com regulamentação abrangente de IA. Nesse cenário, empresas que se prepararam obtêm vantagem competitiva, e o país se posiciona como referência regulatória na região.

No cenário de atrasos e alterações substanciais, a Câmara devolve o projeto ao Senado com modificações significativas, o que estende o processo legislativo por mais um ciclo e mantém a incerteza regulatória. Nesse cenário, empresas enfrentam o desafio de planejar investimentos em IA sem visibilidade sobre as obrigações futuras, e pequenas startups podem ser penalizadas desproporcionalmente pela indefinição normativa. A complexidade técnica do tema e a velocidade acelerada com que a tecnologia evolui são fatores que tendem a prolongar o debate.

Contrapontos, criticas e os limites da regulacao proposta

Especialistas e organizações da sociedade civil levantam questões críticas sobre os projetos em tramitação. A primeira diz respeito à concentração de poder na ANPD, que acumularia funções regulatórias no âmbito de dados pessoais e de IA, o que pode gerar gargalos de capacidade técnica e decisória. A segunda questão envolve a classificação de sistemas por nível de risco, que depende de critérios ainda em definição e pode produzir incerteza interpretativa nos primeiros anos de vigência da lei. A terceira questão, mais estrutural, refere-se ao risco de que a regulação favoreça grandes empresas com recursos para compliance, enquanto startups e pequenas empresas enfrentem barreiras desproporcionais de entrada no mercado.

Há também críticas sobre os limites da abordagem baseada em risco quando aplicada a tecnologias generativas e modelos de linguagem de grande escala. Os sistemas de classificação previstos no PL 2338 foram desenhados pensando em aplicações de IA mais tradicionais, e sua adequação a modelos foundation que operam em múltiplas tarefas simultâneas permanece uma questão em aberto. O ritmo de evolução tecnológica, que já produziu capacidades significativamente mais sofisticadas do que as existentes quando o projeto foi redactado, cria um descompasso entre o marco legal e a realidade técnica que será regulada.

Além disso, a coordenação federativa apresenta desafios que a regulação federal sozinha não resolve. Estados e municípios que utilizam sistemas de IA em serviços públicos locais precisam estar preparados para implementar as obrigações do marco legal, o que demanda capacitação técnica e recursos que nem todos os entes federativos possuem. A eficácia do marco legal dependerá não apenas de sua formulação, mas da capacidade do poder público de garantir cumprimento uniforme em um território tão heterogêneo quanto o brasileiro.


Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje