Marco Legal da Inteligência Artificial: O Cenário Regulatório Brasileiro para 2026
PL 2338/2023 avança na Câmara com modelo baseado em risco; entenda as principais obrigações, sanções e prazos de adequação para empresas.
Panorama da Regulação de IA no Brasil
A inteligência artificial ocupa lugar central nas discussões legislativas brasileiras em 2026. Após aprovação no Senado Federal em dezembro de 2024, o Projeto de Lei 2338/2023 tramita na Câmara dos Deputados, onde constitui uma das prioridades da Casa para o ano legislativo. O projeto visa instituir o marco legal da inteligência artificial no ordenamento jurídico brasileiro, estabelecendo princípios, regras e mecanismos de governança para o desenvolvimento e utilização de sistemas de IA no território nacional.
O modelo adotado pelo PL 2338/2023 segue a tendência internacional de regulação baseada em risco, inspirado no AI Act europeu (Regulamento UE 2024/1689) e em experiências regulatórias de outras jurisdições. A abordagem classifica os sistemas de IA conforme o nível de risco que apresentam para os direitos fundamentais dos cidadãos, impondo obrigações proporcionais à classificação.
Classificação de Risco e Obrigações
O projeto estabelece categorização tripartida para sistemas de inteligência artificial:
IA de Risco Inaceitável: Sistemas cujo uso é expressamente proibido, incluindo manipulação comportamental subliminar, exploração de vulnerabilidades, categorização biométrica sensível para fins de vigilância em espaços públicos e sistemas sociais de pontuação individual.
IA de Alto Risco: Sistemas submetidos a requisitos rigorosos antes de sua colocação no mercado. Incluem sistemas em áreas críticas como infraestrutura vital, gestão de emergências, educação, emprego, serviços financeiros, justiça e segurança pública. Para estes, exige-se avaliação de conformidade, documentação técnica, registro em banco de dados público, supervisão humana contínua e mecanismos de transparência.
IA de Risco Limitado e Mínimo: Sistemas com obrigações mais brandas, limitados principalmente a transparência informativa. Chatbots e sistemas de recomendação, por exemplo, devem ser identificados como IA quando interagem com usuários.
Infraestrutura de Governança
O PL 2338/2023 propõe estrutura institucional específica para fiscalização e aplicação das normas. Prevê a criação de órgão competente com capacidade de monitoramento, investigação e imposição de sanções. O texto também estabelece a Agência Nacional de Proteção de Dados (ANPD) como órgão competente para articulação interinstitucional, aproveitando estrutura já existente.
As multas previstas podem alcançar até R$ 50 milhões por infração, valor calculado em proporção à receita do infrator quando se tratar de pessoa jurídica. Além das sanções pecuniárias, o projeto prevê a possibilidade de suspensão temporária do sistema de IA, apreensão, interdicção e até comunicação aos órgãos competentes para responsabilização criminal.
Contexto Internacional e Tendências Globais
O Brasil não atua isoladamente nesta seara. A União Europeia implementou gradualmente o AI Act ao longo de 2025 e 2026, com as regras para sistemas de alto risco entrando em vigor em agosto de 2026. Os Estados Unidos adotaram abordagem setorial fragmentada, com normas específicas para setores como saúde e finanças. A China publicou regulamentos sobre algoritmos e deepfakes.
Esta convergência internacional influencia diretamente o ambiente de negócios brasileiro. Empresas que operam em múltiplas jurisdições enfrentam custos de conformidade quando suas operações se submetem a regimes regulatórios distintos. O alinhamento do marco brasileiro com padrões internacionais torna-se imperativo para garantir competitividade e interoperability.
Desafios de Implementação
A transição para o novo marco legal apresenta desafios práticos significativos.Especialistas apontam que a adequação tecnológica demandará investimentos substanciais em governança de dados, documentação de sistemas e processos de auditoria algorítmica.
Outro ponto de atenção refere-se à definição de sistemas de alto risco. A classificação depende de critérios técnicos e funcionais que ainda carecem de regulamentação infralegal detalhada. A insegurança jurídica no período de transição pode gerar hesitância empresarial na adoção de tecnologias de IA, com potenciais efeitos negativos sobre a competitividade do ecossistema tecnológico nacional.
Perspectivas para 2026
O cenário regulatório para 2026 aponta para consolidação do marco legal brasileiro de IA. Caso a tramitação do PL 2338/2023 seja concluída, as empresas terão prazo adicional para adequação. Especialistas recomendam que organizações iniciem processos internos de inventário de sistemas de IA, mapeamento de riscos e implementação de práticas de governança algorítmica desde já.
O debate travado na Câmara dos Deputados inclui perspectivas divergentes sobre a intensidade regulatória. De um lado, setores empresariais argumentam que regulações excessivas podem inibir a inovação e tornar o país menos competitivo no cenário global de IA. De outro, organizações da sociedade civil enfatizam a necessidade de proteção de direitos fundamentais e prevenção de danos causados por sistemas algorítmicos discriminatórios ou opacos.
A solução legislativa provavelmente resultará em equilíbrio entre estas perspectivas, com modelo regulatório que permite inovação mas impõe obrigações proporcionais ao risco de cada categoria de sistema. O monitoramento da implementação nos próximos anos indicará a efetividade das escolhas regulatórias realizadas.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)