Welcome!

Unlock your personalized experience.
Sign Up

Marco Regulatório da Inteligência Artificial no Brasil: perspectivas convergentes e divergentes

PL 2338/2023 avança no Congreso enquanto a UE implementa o AI Act. Análise das diferentes visões sobre regulação de IA no Brasil.

April 27, 2026 - 22:10
0 1
Marco Regulatório da Inteligência Artificial no Brasil: perspectivas convergentes e divergentes

Marco Regulatório da Inteligência Artificial no Brasil: Perspectivas Convergentes e Divergentes

O debate sobre a regulação de inteligência artificial no Brasil ganhou contornos mais definidos em 2026, à medida que o PL 2.338/2023 avança no Congresso Nacional e a União Europeia consolida a implementação do AI Act. O presente artigo busca analisar, de forma impessoal e técnica, os principais pontos de convergência e divergência entre as diferentes visões em debate.

O PL 2.338/2023: Situação Atual e Tramitação

O Projeto de Lei 2.338/2023, que estabelece o marco legal para a inteligência artificial no Brasil, teve sua comissão especial aprovada em março de 2026. O projeto adota como diretriz central a classificação de risco dos sistemas de IA, seguindo modelo similar ao estabelecido pelo AI Act europeu.

A classificação proposta pelo PL 2.338/2023 contempla quatro níveis de risco: inaceitável, alto, limitado e mínimo. Sistemas com risco inaceitável, como os que empregam manipulação subliminar ou exploram vulnerabilidades de grupos vulneráveis, são proibidos. Sistemas de alto risco, que incluem IA em decisões trabalhistas, creditícias ou judiciais, ficam sujeitos a obrigações rigorosas de transparência, auditabilidade e governança.

AI Act Europeu: Parâmetros e Lições

O AI Act, em vigor na União Europeia desde 2025, serve como referência inevitável para reguladores worldwide. O regulamento europeu estabelece um sistema de governança baseado em risk assessment prévio, com obrigações proporcionais ao nível de risco identificado. A Comissão Europeia designou agências nacionais para fiscalização, e as primeiras sanções já foram aplicadas.

A experiência europeia oferece lições importantes para o Brasil: a importância de definir previamente critérios objetivos de classificação de risco, a necessidade de equilibrar inovação e proteção, e o desafio de fiscalizar sistemas que operam em múltiplas jurisdições simultaneamente.

Pontos de Convergência

Apesar das diferenças de abordagem, é possível identificar consensos entre os diversos atores do debate:

A necessidade de proteger direitos fundamentais frente a sistemas de IA decision-making é amplamente aceita. Sistemas que afetam diretamente a vida de cidadãos — como os utilizados em análises de crédito, triagem de serviços públicos ou justiça criminal — devem ser submetidos a mecanismos de controle humano (human oversight).

A exigência de transparência também gera convergência. Tanto o PL 2.338/2023 quanto o AI Act impõem a obrigação de informar os usuários quando estão interagindo com um sistema de IA, bem como explicar, de forma compreensível, os principais fatores que fundamentaram uma decisão algorítmica.

A importância da governança corporativa também é reconhecida. Empresas que desenvolvem ou implementam sistemas de IA de alto risco devem instituir políticas internas de gestão de risco, realizar testes regulares e manter registros de treinamento e validação de seus modelos.

Pontos de Divergência

As divergências mais significativas concentram-se em torno de três eixos:

O nível de intervenção estatal divide opiniões. De um lado, setores empresariais argumentam que regulações excessivamente detalhadas podem inibir a inovação e colocar empresas brasileiras em desvantagem competitiva frente a concorrentes de jurisdições mais permissivas. De outro, organizações da sociedade civil e parte da academia defendem que a proteção de direitos fundamentais exige regulação robusta, mesmo que isso represente custos de compliance.

A tensão entre proteção e inovação permeia todo o debate. Países como os Estados Unidos têm adotado abordagens mais sector-specific e voluntárias, priorizando a autorregulação da indústria. O Brasil, ao alinhar-se com o modelo europeu, assume uma posição mais intervencionista que pode ser criticada por uns e celebrada por outros.

O federalismo regulatório também gera debates. Questões como a aplicação de regras de IA em serviços públicos estaduais e municipais, ou a competência de fiscalização entre níveis de governo, carecem de solução clara no texto atual do PL 2.338/2023.

Perspectivas para o Segundo Semestre de 2026

O PL 2.338/2023 deverá ser analisado pelo Plenário da Câmara dos Deputados no segundo semestre de 2026. O relatório do Deputado relator inclui alterações significativas em relação ao texto original, incluindo a ampliação de exceções para sistemas utilizados em pesquisa e desenvolvimento e a simplificação de obrigações para microempresas e empresas de pequeno porte.

O desfecho do projeto terá implicações diretas para empresas de tecnologia, escritórios de advocacia especializados em direito digital e instituições públicas que utilizam sistemas automatizados de decisão.


As análises apresentadas não configuram orientação jurídica específica. Procure sempre um profissional habilitado para avaliação de casos concretos.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User