Marco Legal da Inteligência Artificial no Brasil: O PL 2338/2023 e os Desafios para 2026
Análise do projeto de lei que busca regulamentar a IA no Brasil, seus princípios, direitos e o cenário de tramitação em 2026.
Introdução
O Brasil caminha para consolidar, em 2026, um dos marcos regulatórios mais aguardados pelo setor de tecnologia e pelo ecossistema jurídico nacional. O Projeto de Lei nº 2.338/2023, que dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial, aguarda votação decisiva na Câmara dos Deputados após ser aprovado pelo Senado Federal em dezembro de 2024.
A proposta estabelece um catálogo pioneiro de direitos para pessoas afetadas por sistemas de inteligência artificial, além de impor obrigações de transparência, governança e accountability a desenvolvedores e operadores dessas tecnologias.
Evolução Histórica e Marco Regulatório
A discussão sobre regulação de inteligência artificial no Brasil não é recente. Desde 2019, o Laboratório de Políticas Públicas e Internet da Universidade de São Paulo (LAPIN-USP) e diversas organizações da sociedade civil participam ativamente do debate. O marco inicial do processo legislativo ocorreu com a apresentação do PL 2.338/2023 pelo senador Rodrigo Pacheco, que estruturou um texto abrangente inspirado parcialmente na abordagem europeia do AI Act.
O Executivo federal, em dezembro de 2025, apresentou o PL 6.237/2025, que propõe a instituição do Sistema Nacional de Governança de Inteligência Artificial, saneando suposto vício de iniciativa identificado no texto original do PL 2.338/2023. Essa sobreposição de projetos,增加了 a complexidade do processo legislativo.
Princípios Fundamentais do PL 2.338/2023
O projeto adota como diretriz central a centralidade da pessoa humana, reconhecendo a IA como instrumento a serviço do desenvolvimento social e não como fim em si mesmo. Entre os princípios previstos, destacam-se:
Respeito aos direitos fundamentais: Toda aplicação de IA deve preservar os direitos consagrados na Constituição Federal, incluindo dignidade, privacidade, igualdade e acesso à justiça.
Transparência e explicabilidade: Sistemas de alto impacto devem ser capazes de fornecer explicações comprehensíveis sobre as decisões automatizadas que afetem os cidadãos.
Supervisão humana: Decisões que impliquem efeitos jurídicos significativos devem prever a interveniência de pessoa natural, especialmente em contextos sancionatórios, médicos e judiciais.
Prevenção de danos: Desenvolvedores e operadores devem adotar medidas de mitigação de riscos antes da implementação de sistemas de IA.
Catálogo de Direitos
O PL 2.338/2023 cria, pela primeira vez de forma unificada, um conjunto de direitos para qualquer pessoa afetada por decisão tomada por inteligência artificial:
Direito à informação: O cidadão tem direito a saber quando interacting with um sistema de IA e a compreender os critérios utilizados em decisões que lhe digam respeito.
Direito à contestação: Possibilidade de requerer revisão humana de decisões automatizadas.
Direito à não sujeição: Em determinados contextos, o cidadão pode recusar o tratamento exclusivamente automatizado.
Direito à reparação: Em caso de dano decorrente de falha em sistema de IA, o afetado tem direito à reparação integral.
Sistema de Governança e Classificação de Riscos
A proposta adota modelo de governança multinível, com participação da União, estados e municipalities, além de órgãos técnicos especializados. A classificação de risco dos sistemas de IA segue abordagem proporcional:
Risco inaceitável: Sistemas proibidos, incluindo scoring social e vigilância em massa.
Alto risco: Requerem registro, avaliação de conformidade e supervisão contínua — abrangendo áreas como saúde, justiça, segurança e emprego.
Risco limitado: Requerem transparência, mas sem imposição de avaliação prévia.
Risco mínimo: Aplicações de baixo impacto, como filtros de spam e recomendações de conteúdo.
O Cenário em 2026
A tramitação do PL 2.338/2023 enfrenta obstáculos significativos. Relatórios da imprensa indicam que divergências entre ministérios do governo federal — especialmente entre Economia e Tecnologia — têm retardado a definição de posição oficial.set. Additionally, empresas de tecnologia mantêm pressão para flexibilização de obrigações de transparência e responsabilização.
Em março de 2026, a Comissão Especial da Câmara aprovou a criação do Marco Regulatório da Inteligência Artificial, com mudanças substantivas no texto original do Senado. A principal polêmica envolve a extensão das obrigações de Avaliação de Impacto Regulatório e Econômico (AIR-AI), que desenvolvedores consideram excessivamente onerosas.
Perspectivas e Desafios
A aprovação do marco legal representará um divisor de águas para o ecossistema de inovação no Brasil. De um lado, oferecerá segurança jurídica para investimentos em IA; de outro, impõe custos de conformidade que podem dificultar a atuação de startups e pequenos desenvolvedores.
A harmonização com a Lei Geral de Proteção de Dados (LGPD) constitui outro ponto crítico. O encaixe normativo entre os dois marcos determinará a consistência do sistema regulatório brasileiro para a economia digital.
Conclusão
O Brasil tem a oportunidade de se posicionar entre os primeiros países do mundo a disciplinar a inteligência artificial por meio de legislação abrangente. O PL 2.338/2023, apesar das imperfeições técnicas e das tensões políticas, representa um avanço na proteção de direitos fundamentais no contexto tecnológico. A definição do cenário regulatório em 2026 será determinante para o futuro da inovação jurídica e da governança digital no país.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)