Welcome!

Unlock your personalized experience.
Sign Up

Marco legal da inteligência artificial no Brasil: o que esperar do PL 2338/2023 em 2026

O Projeto de Lei 2338/2023 avança na Câmara dos Deputados após cinco anos de debates, mas impasses políticos, questões constitucionais e disputas setoriais mantêm o cenário regulatório incerto para empresas e cidadãos.

May 03, 2026 - 21:08
0 1
Marco legal da inteligência artificial no Brasil: o que esperar do PL 2338/2023 em 2026
Dirhoje
Dirhoje

O cenário regulatório e a urgência de um marco legal

A inteligência artificial deixou de ser uma promessa distante para se tornar o motor de operações comerciais em todos os setores da economia brasileira. Desde chatbots de atendimento até algoritmos de análise de crédito, milhões de brasileiros já interagem diariamente com sistemas de IA, frequentemente sem saber que estão sendo avaliados por máquinas. Essa expansão acelerada occurred sem que o país tivesse regras claras definindo direitos, obrigações e responsabilidades. O vácuo regulatório que se instalou abriu espaço para questões éticas graves: vieses algorítmicos que podem levar à discriminação, uso indevido de dados pessoais, falta de transparência sobre decisões automatizadas e dificuldade de atribuir responsabilidade quando um sistema autônomo causa dano.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

O Projeto de Lei 2338/2023, de autoria do presidente do Senado Federal Rodrigo Pacheco, surge como resposta a essa lacuna. A proposta consolidou iniciativas legislativas anteriores que tramitavam em paralelo - entre elas o PL 21/2020 e o PL 5.051/2019 - e passou a representar o esforço mais sistemático do Congresso Nacional para criar um marco legal para a IA no Brasil. O texto foi aprovado pelo Senado em dezembro de 2024 e remetido à Câmara dos Deputados em março de 2025, onde aguarda parecer do relator na Comissão Especial. A expectativa inicial de votação para o final de 2025 foi adiada para 2026, em decisão alinhada entre as presidências da Câmara e do Senado.

A questão central para 2026 não é mais se haverá marco regulatório de IA no Brasil, mas como será estruturado o arranjo institucional capaz de fiscalizar e sancionar o cumprimento das regras. Essa mudança de eixo revela amadurecimento do debate, mas também expõe a complexidade de transformar princípios abstratos em obrigações concretas.

Os pilares fundamentais do projeto de lei

O PL 2338/2023 adota uma estrutura normativa que combina princípios gerais, classificação de sistemas por nível de risco e obrigações específicas para desenvolvedores, operadores e usuários de IA. Em sua arquitetura fundamental, o projeto estabelece que todo sistema de inteligência artificial deve ser desenvolvido e utilizado em conformidade com princípios como transparência, explicabilidade, não discriminação, privacidade e proteção de dados, participação humana e responsabilização. Esses princípios não são meramente programáticos: o texto prevê mecanismos de fiscalização, sanções administrativas e responsabilidade civil para casos de descumprimento.

A espinha dorsal do projeto é a classificação dos sistemas de IA conforme o risco que representam para direitos fundamentais. Sistemas de risco inaceitável - como aqueles que manipulam comportamentos de forma subliminar ou que implementam pontuação social de cidadãos - são expressamente proibidos. Sistemas de alto risco, que operam em setores como saúde, educação, justiça criminal, emprego e infraestrutura crítica, estão sujeitos a obrigações reforçadas de documentação técnica, supervisão humana, avaliação de impacto e auditabilidade. Demais sistemas respondem a uma regulação mais leve, centrada na transparência perante o usuário.

O modelo europeu como referência e suas adaptações ao contexto brasileiro

O PL 2338/2023 incorpora elementos do AI Act europeu, que entrou em vigor em 2024 e vem sendo implementado progressivamente pela União Europeia. A proximidade estrutural não é coincidência: o texto brasileiro foi influenciado directamente pelo modelo europeu de classificação por risco e pelo regime de obrigações escalonadas. Contudo, há diferenças significativas. O modelo brasileiro enfatiza os direitos das pessoas afetadas por sistemas de IA de forma mais incisiva, influenciada pelos debates constitucionais brasileiros e pela experiência consolidada com a Lei Geral de Proteção de Dados. O projeto dedica capítulo específico ao direito à informação prévia sobre a interação com sistemas de IA, o direito à determinação humana em decisões relevantes, o direito à não discriminação e correção de vieses algorítmicos e o direito à privacidade.

A tramitação na Câmara: impasses e controvérsias

A Comissão Especial criada na Câmara dos Deputados para analisar o texto tem como presidente a deputação Luísa Canziani e relator o deputação Aguinaldo Ribeiro, do PP da Paraíba. Entre maio e setembro de 2025, a Comissão realizou doze audiências públicas com participação de especialistas, representantes do setor produtivo, sociedade civil e organismos internacionais. Os principais pontos de controvérsia revelam a complexidade do equilíbrio que o legislador precisa alcançar.

De um lado, representantes do setor de tecnologia e entidades empresariais criticam o texto por sua excessiva rigidez regulatória. O modelo de compliance ex ante, que impõe obrigações antes mesmo do uso do sistema, é considerado desproporcional para startups e pequenas empresas. O custo de conformidade, argumentam, pode funcionar como barreira à inovação e favorecer apenas grandes empresas com departamentos jurídicos robustos. De outro lado, organizações de defesa de direitos civis apontam que o texto aprovado pelo Senado já havia sido esvaziado em pontos críticos, como a retirada de salvaguardas trabalhistas relacionadas à automação e a ausência de regras substantivas sobre direitos autorais no treinamento de sistemas de IA generativa.

A questão dos direitos autorais e o vício constitucional

A questão dos direitos autorais é particularmente sensível. O texto aprovado pelo Senado previa que empresas de tecnologia informassem quais obras protegidas foram utilizadas no treinamento de sistemas de IA e assegurava aos autores o direito de vetar esse uso. O debate na Câmara reacendeu as disputas sobre o alcance dessas disposições, com o setor cultural defendendo maior proteção e plataformas tecnológicas resistindo a obrigações que consideram tecnicamente inviáveis. Não há ainda um consenso técnico sobre como rastrear e demonstrar o uso de obras protegidas em processos de treinamento de modelos generativos.

Um complicador adicional é de natureza constitucional. O Poder Executivo identificou que o texto aprovado pelo Senado apresenta vício de iniciativa: ao atribuir competências normativas à Autoridade Nacional de Proteção de Dados, o projeto tratou de matéria de iniciativa privativa do Poder Executivo. Mantido esse dispositivo, o texto fica exposto a questionamento de inconstitucionalidade perante o Supremo Tribunal Federal. Para sanar o problema, o Executivo encaminhhou, em dezembro de 2025, projeto de lei complementar que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial e formaliza o papel da ANPD como coordenadora. Esse projeto deberá ser apensado ao PL 2.338/2023, adicionando mais uma camada de complexidade à tramitação.

O vácuo regulatório atual e o papel da LGPD

Enquanto o marco legal específico não é aprovado, o Brasil não opera em vácuo normativo total. A Lei Geral de Proteção de Dados já disciplina, de forma relevante, o uso de sistemas de IA que envolvam tratamento de dados pessoais - o que, na prática, abrange a esmagadora maioria das aplicações comerciais. O artigo 20 da LGPD assegura ao titular de dados o direito de solicitar a revisão de decisões tomadas exclusivamente com base em tratamento automatizado quando essas decisões afetarem seus interesses, incluindo decisões de crédito, seleção de pessoal e triagem de perfis. O artigo 6.º impõe os princípios de transparência e finalidade a todo tratamento de dados. O artigo 37 obriga o controlador a manter o Relatório de Impacto à Proteção de Dados Pessoais quando o tratamento representar risco elevado aos direitos dos titulares.

A ANPD demonstrou disposição para atuar nesse espaço. Em dezembro de 2025, a Autarquia publicou o Mapa de Temas Prioritários que sinaliza a intenção de emitir orientações específicas sobre o uso de IA em áreas como crédito, emprego e segurança pública. Ainda assim, especialistas apontam que a LGPD, por não ter sido desenhada especificamente para IA, deixa lacunas importantes - especialmente no que diz respeito à explicabilidade de decisões algorítmicas complexas e à supervisão humana em sistemas autônomos.

A comparação com outros mercados e seus efeitos competitivos

A ausência de um marco regulatório brasileiro para IA já produce efeitos práticos no mercado. Empresas que atuam em múltiplas jurisdições precisam cumprir requisitos regulatórios diferentes - o AI Act na União Europeia, a Ordem Executiva norte-americana sobre IA, as regras setoriais chinesas - sem que o Brasil tenha um padrão claro e estável. Para empresas brasileiras que Desejam exportar serviços tecnológicos ou atraí investmentos estrangeiros, a indefinição regulatória cria incerteza jurídica que pode favorecer jurisdições concorrentes. Por outro lado, a ausência de regras rigorosas também é vista por alguns analistas como vantajosa para a inovação doméstica, ao menos no curto prazo.

Cenários para 2026 e caminhos possíveis

O cenário mais provável para 2026 é a aprovação de alguma forma do marco legal, embora o texto final possa ser substancialmente diferente da proposta original. O calendário eleitoral de 2026 adiciona pressão: projetos de lei complexosfrequentemente são arrastados para o final da mandatos ou ficam pendientes de nova legislative. O Executivo, por sua vez, tem interesse em avançar com o tema para demonstrar capacidade regulatória frente a outras jurisdições.

Há ainda a possibilidade de que o STF seja provocado a analisar a constitucionalidade de dispositivos específicos antes mesmo de a lei ser aprovada, o que poderia acelerar ou atrasar o processo. Outra variável é o posicionamento do setor de tecnologia, que tem intensificado lobby na Câmara por alterações que consideram essenciais para a viabilidade operacional.

Para empresas que já utilizam sistemas de IA, a recomendação de especialistas é não aguardar a aprovação final para iniciar processos de conformidade. A adequação à LGPD, a documentação de processos de treinamento e a implementação de mecanismos de transparência são medidas que já são devidas e que facilitam a adaptação futura ao marco legal. A conformidade, nesse sentido, não é apenas uma resposta à lei, mas uma estratégia de mitigação de riscos jurídicos e reputacionais.

Contrapontos e limites da análise

É importante reconhecer que a discussão sobre regulação de IA no Brasil ocurre em um terreno com incertezas significativas. Ainda não se sabe com precisão quais setores serão mais impactados pelas obrigações do marco legal, nem quais serão os custos reais de conformidade para pequenas e médias empresas. As projeções sobre impactos econômicos e trabalhistas dependem de pressupostos sobre a velocidade de adoção tecnológica que podem não se concretizar. Além disso, a própria tecnologia evolui rapidamente, e regras desenhadas em 2025 podem não ser adequadas para sistemas que surjam em 2027 ou 2028.

O viés de que regulação é necessariamente sinônimo de inovação é contestável. Há evidências de que a previsibilidade regulatória pode ser um fator atractivo para investimentos de longo prazo, inclusive em mercados emergentes. A ausência de regras, por sua vez, pode gerar custos ocultos - processos judiciais, danos reputacionais, perda de confiança - que também afetam a competitividade. O debate, portanto, não é entre regulação e não regulação, mas sobre quais mecanismos regulatórios são apropriados para o contexto brasileiro.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje