Marco Legal da Inteligência Artificial no Brasil: O Que muda em 2026 com o PL 2338/2023
O PL 2338/2023 aprovado pelo Senado traz regras detalhadas para sistemas de IA no Brasil. Entenda princípios, direitos, obrigações e multas de até R$ 50 milhões.
PL 2338/2023: o novo arcabouço legal da inteligência artificial no Brasil
O Projeto de Lei 2338/2023, que estabelece o Marco Legal da Inteligência Artificial no Brasil, encontra-se em fase final de tramitação legislativa, com expectativa de aprovação definitiva em 2026. O texto, que passou pelo Senado Federal em dezembro de 2025, representa a principal iniciativa regulatória do país na seara da inteligência artificial, posicionando o Brasil entre as jurisdições mais ativas na regulamentação da tecnologia.
Contexto histórico e tramitação
A inteligência artificial passou a integrar o debate legislativo brasileiro a partir de 2019, quando o Tribunal de Contas da União emitiu relatório sobre impactos da automação na administração pública. O PL 2338/2023 foi apresentado à Câmara dos Deputados em 2023, consolidando uma proposta que dialoga com marcos regulatórios internacionais como o AI Act da União Europeia e o framework americano de execução algorítmica.
A Comissão de Ciência e Tecnologia da Câmara aprovou o texto em março de 2026, com modificações que incluíram obrigações específicas para plataformas de IA generativa e regras de identificação de conteúdos artificiais.
Princípios fundamentais
O Marco Legal estabelece princípios que devem orientar o desenvolvimento e aplicação de sistemas de inteligência artificial no território nacional. São eles:
Transparência algorítmica: sistemas de alto impacto devem ser capazes de explicar suas decisões aos afetados, em linguagem acessível. O conceito abrange tanto a transparência técnica (documentação de modelos) quanto a transparência operativa (explicabilidade das decisões individuais).
Viés zero: embora reconheça a impossibilidade de eliminação absoluta de vieses algorítmicos, o texto impõe obrigação de mitigação ativa, com avaliações periódicas de impacto algorítmico em populações vulneráveis.
Supervisão humana: decisões que afetem direitos fundamentais devem preservar a possibilidade de intervenção humana, vedando-se a delegação absoluta de julgamento a sistemas automatizados.
Princípio da precaução: diante da incerteza científica sobre efeitos de longo prazo de sistemas de IA avançados, impõe-se adoção de medidas cautelares proporcionais ao risco.
Catálogo de direitos dos afetados
O PL 2338/2023 cria um catálogo pioneiro de direitos para qualquer pessoa afetada por decisão de inteligência artificial. Tais direitos não existem hoje de forma unificada no ordenamento jurídico brasileiro, o que representa avanço significativo.
Dentre os direitos previstos, destacam-se:
Direito à explicação: qualquer pessoa tem direito a receber explicação clara e acessível sobre como uma decisão algorítmica afetou seus interesses, especialmente em contextos de crédito, emprego, seguridade social e justiça.
Direito à contestação: o afetado pode requerer revisão humana de decisões automatizadas, com prazo máximo de 30 dias para resposta.
Direito à não sujeição: em determinadas situações, a pessoa pode optar por não ser objeto de decisão exclusivamente algorítmica, especialmente em transações de baixo valor.
Direito à compensação: sistemas que causem dano podem gerar obrigação de compensação, independentemente de comprovação de dolo ou culpa do desenvolvedor.
Obrigações das empresas e plataformas
O Marco Legal impõe conjunto de obrigações para desenvolvedores e operadores de sistemas de inteligência artificial. As empresas devem:
- Registrar sistemas de alto impacto em banco de dados mantido pelo Ministério da Ciência e Tecnologia.
- Realizar avaliação de impacto algorítmico antes da implementação, com foco em direitos fundamentais e grupos vulneráveis.
- Manter documentação técnica que permita auditoria por órgãos reguladores.
- Implementar mecanismos de rastreamento de conteúdos gerados por IA, especialmente em plataformas com mais de um milhão de usuários.
A Comissão de Ciência e Tecnologia, em março de 2026, derrubou uma série de destaques que flexibilizavam essas obrigações, mantendo padrão elevado de compliance.
Multas e sanctions
O texto prevê escalonamento de sanções que vai de advertência até multas de R$ 50 milhões, aplicadas proporcionalmente ao porte da empresa e à gravidade da infração. Além das multas, há previsão de:
- Suspensão temporária da operação do sistema de IA.
- Determinação de exclusão de banco de dados.
- Proibição de implementação de novos sistemas até regularização.
As sanções são aplicadas pelo Ministério da Ciência e Tecnologia, em procedimento que assegura contraditório e ampla defesa, com recurso para o CARF.
Desafios de implementação
A comunidade jurídica aponta desafios relevantes para a implementação do Marco Legal. A definição de "alto impacto" permanece em aberto, gerando insegurança regulatória para empresas que operam sistemas de IA em contextos borderline.
Há também preocupação com a interface entre o Marco Legal e a Lei Geral de Proteção de Dados (Lei 13.709/2018). Enquanto a LGPD trata do tratamento de dados pessoais, o Marco Legal endereça as decisões algorítmicas independente do tipo de dado utilizado. A sobreposição de regimes regulatórios pode gerar custos de compliance desproporcionais para empresas menores.
O período de adaptação proposto é de 18 meses após publicação da lei, prazo considerado exiguo por entidades do setor de tecnologia.
Perspectivas para 2026
Com a votação final prevista para o primeiro semestre de 2026, o Marco Legal deve entrar em vigor gradualmente. As empresas que já desenvolveram programas de governança algorítmica estarão em posição mais favorável para compliance.
O legislativo brasileiro, ao aprovar o PL 2338/2023, consolida tendência global de regulação da inteligência artificial, estabelecendo padrão alinhado com a União Europeia e com práticas de governança tecnológica emergentes em democracias liberais.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)