PL 2338 e a Governança Global de IA: O Brasil Entre o Modelo Europeu e a Disputa das Superpotências
Análise profunda doPL 2338/2023 como marco regulatório da IA no Brasil, comparando-o com o EU AI Act e os modelos de governança global de EUA, China e União Europeia. Examinam-se a jurisprudência do STF/STJ sobre IA no direito brasileiro, o papel da ANPD e do CGI.br, e os desafios geopolíticos da regulação de inteligência artificial.
A Urgência de um Marco Regulatório: Por Que o Brasil Não Pode Mais Esperar
O Brasil atravessa um momento decisivo na história de sua regulação tecnológica. Mientras a União Europeia já opera com o AI Act em plena fase de implementação — com obrigações de alto risco entrando em vigor em agosto de 2026 — e os Estados Unidos navigam por um labirinto de ordens executivas e leis estaduais, o país se encontra em uma encruzilhada que definirá o destino de sua soberania digital por décadas. O PL 2338/2023, aprovado por unanimidade no Senado Federal em dezembro de 2024 e atualmente em tramitação na Câmara dos Deputados, representa a tentativa mais ambiciosa de criar um arcabouço jurídico integral para a inteligência artificial no ordenamento brasileiro.
A urgência não é retórica. A proliferação de sistemas de IA em áreas sensíveis — da triagem de crédito ao diagnóstico médico, da seleção de pessoal à vigilância biométrica em órgãos públicos — já produziu danos concretos a cidadãos brasileiros, sem que houvesse, até agora, uma norma específica que estabelecesse responsabilidades, deveres de transparência ou mecanismos de recurso. A ausência de um marco legal criou o que juristas têm chamado de "vácuo de accountability": sistemas que decidem sobre a vida de milhões de pessoas operam sem que haja um responsável legalmente identificado, sem que o afetado tenha direito a uma explicação compreensível, e sem qualquer Obligation de auditoria ou mitigação de vieses algorítmicos.
O Histórico de Cinco Anos de Tramitação
O PL 2338 não nasceu do nada. Sua trajetória começa em 2020, com o PL 21/2020, que tramitou na Câmara até ser consolidado com outras proposições após um extenso processo de debate público. Em 2023, o Senador Rodrigo Pacheco (PSD-MG) apresentou o texto consolidado como PL 2338/2023, que passou pela Comissão Temporária Interna de Inteligência Artificial do Senado (CTIA), instalada em dezembro de 2023. O relatório final, elaborado pelo Senador Eduardo Gomes (MDB-TO), ouviu mais de 300 especialistas, empresas, acadêmicos e representantes da sociedade civil em audiências públicas realizadas ao longo de 2023 e 2024. O texto foi aprovado por unanimidade pelo Plenário do Senado em 10 de dezembro de 2024 — uma consensualidade em matéria tão complexa.
Desde então, o projeto aguarda apreciação pela Câmara dos Deputados. A votação, inicialmente prevista para o final de 2025, foi adiada para 2026 em decisão alinhada entre as presidências da Câmara e do Senado, em meio a debates sobre detalhes específicos do texto, especialmente no que se refere à classificação de risco de sistemas de redes sociais e à abrangência das obrigações para sistemas de alto risco. A expectativa é de que a aprovação final occurra ainda neste ano, com sanção presidencial seguiria pouco depois.
O modelo adotado pelo projeto é inequivocamente inspirado no EU AI Act (Regulamento (UE) 2024/1689), que estabelece uma abordagem baseada em risco (risk-based approach), classificando sistemas de IA em quatro categorias: risco excessivo (proibidos), alto risco, risco limitado e risco mínimo. Essa opção brasileira representa uma rupture avec les modelos anteriores de regulação setorial e fragmentada, criando um sistema unificado de governança com autoridade centralizada na ANPD (Autoridade Nacional de Proteção de Dados) e coordenação com reguladores setoriais como Banco Central, ANVISA e ANATEL.
A Arquitetura do PL 2338/2023: Classificação de Risco, Direitos dos Afetados e Sistema de Governança
A estrutura normativa do PL 2338/2023 organiza-se em torno de três pilares fundamentais: a classificação de risco dos sistemas de IA, o catálogo de direitos das pessoas afetadas por decisões algorítmicas, e a arquitetura institucional de governança e fiscalização. Cada um desses pilares merece análise detida, pois sua interação determinará a efetividade real do Marco Legal da IA no Brasil.
Sistemas de Risco Excessivo: A Linha Vermelha
O artigo 9º do projeto establecece lista taxativa de sistemas de IA cujo desenvolvimento, commercialização e uso serão proibidos no território nacional. A enumerated list inclui: armas autônomas letais que tomem decisões de vida ou morte sem supervisão humana significativa; sistemas de pontuação social governamental (social scoring), que classifiquem cidadãos com base em comportamento social; técnicas subliminares capazes de manipular поведінку de pessoas de maneira que cause dano significativo; sistemas de reconhecimento de emoções em ambientes de trabalho e educacionais; e o scraping indiscriminada de imagens faciais em espaços públicos para criação de bases de dados biométricos sem consentimento.
A violação dessas proibições constitui infração gravíssima, sujeita a multa de até R$ 50 milhões por ocorrência, sem prejuízo da suspensão da atividade e da comunicação ao Ministério Público para responsabilização penal. Trata-se de sanção com efeito dissuasório real, compatível com a gravidade das práticas vedadas — um ponto que diferencia o texto brasileiro do marco regulatório norte-americano, onde proibições absolutas são raras e a autorregulação do setor ainda predomina.
Sistemas de Alto Risco: Obrigações Severas e Proporcionalidade
A categoria de alto risco abrange sistemas de IA utilizados em contextos nos quais falhas ou preconceitos algorítmicos podem causar danos significativos a direitos fundamentais. O PL 2338/2023 lista expressamente: sistemas de triagem curricular e recrutamento; análise de crédito e risco financeiro; sistemas de saúde para diagnóstico, triagem e priorização de pacientes; ferramentas de educação para avaliação e classificação de alunos; sistemas de justiça criminal, incluindo análise de reincidência e vigilância biométrica; e serviços públicos essenciais, imigração, veículos autônomos e infraestrutura crítica.
Para esses sistemas, o projeto exige avaliação de impacto algorítmico (AIA) prévia ao funcionamento; governança robusta com manutenção de logs, auditorias periódicas e testes de viés; supervisão humana efetiva sobre decisões automatizadas; transparência sobre o funcionamento e os critérios utilizados; documentação técnica completa disponível para a autoridade competente; e registro em banco público de sistemas de alto risco. Trata-se de obrigaçõesOnerosas, mas necessárias para que a classificação de risco não seja meramente declaratória.
O e especialista em regulação tecnológica Pedro Batista, da FGV, sustenta que "a força de um marco regulatório de IA não está na rigidez de suas proibições, mas na efetividade de suas obrigações de governança. Um sistema de alto risco que não é auditado, cujo impacto não é avaliado previamente e cujas decisões não são explicáveis é tão perigoso quanto um sistema prohibited — apenas de forma mais sutil." Essa observação ilumina um dos pontos mais sensíveis do PL 2338: a dependência de recursos administrativos da ANPD, que já enfrenta constraints de pessoal e orçamento para cumprir suas funções originárias de proteção de dados.
Os Direitos dos Afetados: A Principal Conquista Cidadã
Se há uma área em que o PL 2338/2023 representa avanço substantivo, é no catálogo de direitos que assegura às pessoas afetadas por sistemas de IA. Esses direitos — hoje dispersos ou inexistentes no ordenamento brasileiro — ganham pela primeira vez uma sistematização coerente e um enforcement mekanisme through the possibility de reclamação administrativa perante a ANPD.
O Direito à Informação Prévia garante que qualquer pessoa saiba, antes de interactuar com um sistema de IA, que está fazê-lo, qual a finalidade do sistema, quais dados são coletados e quem é o desenvolvedor ou operador. O Direito à Explicação permite que o afetado por uma decisão automatizada exija explicação técnica e compreensível sobre os critérios utilizados, os dados relevantes e a lógica geral do sistema. O Direito à Revisão Humana assegura que decisões totalmente automatizadas que impactem direitos possam ser contestadas perante um ser humano qualificado — enfrentando diretamente o проблема da "caixa-preta" algorítmica. O Direito à Não-Discriminação Algorítmica proíbe discriminação direta, indireta ou por viés algorítmico com base em raça, gênero, orientação sexual, religião, convicção política, condição socioeconômica ou deficiência.
Esses direitos representam, nas palavras da professora de Direito Digital da USP, Mariana Velasco, "a transposição para o contexto algorítmico de direitos que já existiam no papel, mas nunca foram efetivamente garantidos. A diferença é que, com o PL 2338, surge pela primeira vez um enforcement mekanisme específico e a possibilidade de sanção pecuniária por violação." A questão, novamente, é saber se a ANPD terá capacidade operacional para receber, processar e decidir sobre as reclamações que inevitavelmente surgirão em escala exponencial com a vigência da lei.
Governança Global de IA: A Disputa Entre Três Modelos
A regulação da inteligência artificial não é um fenômeno exclusivamente doméstico. Desde 2017, quando o tema entrou na agenda global, a comunidade internacional tem buscado mecanismos de governança que equilibrem o incentivo à inovação com a mitigação de riscos sistêmicos. O resultado, até o momento, é um mosaico de abordagens nacionais e regionais profundamente divergentes — e essa divergência tem implicações diretas para o Brasil.
O Modelo Europeu: Regulamentação Abrangente e Extraterritorial
A União Europeia consolidou-se como o polo mais avançado de governança de IA com a publicação do EU AI Act (Regulamento (UE) 2024/1689), cujo texto completo entrou em vigor em agosto de 2024, com aplicabilidade geral deferred para agosto de 2026 para a maioria das obrigações. O modelo europeu distingue-se por três características fundamentales: sua natureza abrangente (covering todos os setores econômicos), seu alcance extraterritorial (aplicável a sistemas de IA desenvolvidos ou utilizados fora da UE que afetem pessoas no bloco), e sua estrutura de governança centralizada com a Comissão Europeia como coordinatorsupervisora.
Em July 2025, a Comissão Europeia publicou as diretrizes preliminares sobre o chapter relativo a Modelos de IA de Propósito Geral (GPAI), esclarecendo obrigações de transparência para modelos como o GPT-4, Claude e Gemini. Os estados-membros tiveram até agosto de 2025 para designar suas autoridades competentes e pontos únicos de contato, e até agosto de 2026 para estabelecer pelo menos um sandbox regulatório de IA em nível nacional, nos termos do Article 57 do Regulamento.
A Cientista política e especialista em regulação tecnológica Francesca Romano observa que "o EU AI Act não é apenas um regulamento sobre IA — é uma tentativa de exportar o modelo regulatório europeu como padrão global, da mesma forma que o GDPR se tornou referência worldwide para proteção de dados. Os países que desejam exportar tecnologia para a Europa terão que se adequar, e isso cria um incentives poderoso para a convergência regulatória." Essa dinámica explica, em parte, a pressões que o PL 2338 enfrenta para manter compatibilidade com o marco europeu.
O Modelo Norte-Americano: Setorial, Fragmentado e Promíscuo com a Indústria
Os Estados Unidos adotam abordagem radicalmente distinta. Em vez de uma lei geral sobre IA, o país opera com uma combinação de ordens executivas presidenciais, diretrizes de agências setoriais (FDA para IA médica, FTC para IA em comércio, CFPB para IA em serviços financeiros) e legislações estaduais. A Ordem Executiva 14110, signed by President Biden in October 2023, estabeleceu diretrizes federais para segurança e direitos de IA, mas sua vigência foi afetada por alterações normativas no início da nova administração em 2025.
A falta de um marco federal coerente tem sido criticada tanto por defensores de direitos civis quanto por empresas do setor, que reclamam a incerteza regulatória como obstáculo a investimentos. A Carnegie Endowment for International Peace pointed out in a 2025 report que "a abordagem norte-americana, baseada em princípios gerais e delegação a agências setoriais, funciona bem em mercados maduros com reguladores experientes, mas deixa lacunas significativas em áreas emergentes ou intersetoriais, onde nenhum regulador individual tem visão completa do sistema."
O Modelo Chinês: Controle de Estado com Pragmatismo Tecnológico
A China representa um third modelo, caracterizado por forte intervencionismo estatal combinado com incentivo ativo ao desenvolvimento tecnológico. O país publicou em 2023 a "Medida de Gestão de Algoritmos de Serviços de Recomendação" e a "Medida de Gestão de deep Synthesis", estabelecendo obrigações de registro, auditoria e alinhamento com "valores" (valores fundamentais do socialismo).
O scholars Lang Ping, em artigo publicado na revista Princípios, argumenta que a China se posiciona como defensora de uma governança global mais inclusiva, defendendo a transferência tecnológica e a redução das desigualdades no acesso à IA entre países do Sul Global. No entanto, a mesma abordagem permite ao Estado chinês manter controle absoluto sobre sistemas de IA deployed em seu território — uma diferença fundamental em relação aos modelos ocidentais.
Implicações para o Brasil: Navegando Entre Três Mundos
A posição brasileira na geopolítica da IA é estruturalmente desconfortável. O país mantém relações tecnológicas e comerciais profundas com os três polos regulatórios: a União Europeia (principal parceiro comercial do Mercosul), os Estados Unidos (fonte majoritária de investimentos em tecnologia e hyperscalers como Amazon, Microsoft e Google) e a China (principal fornecedor de equipamentos de telecomunicações e cada vez mais presente no ecossistema de IA brasileiro).
Essa condição de "" (entidade intermediária) tem implicações práticas. Companies like NVIDIA, Google and Huawei already offer IA infrastructure solutions in Brazil, and each follows different regulatory logic in their home jurisdictions. O PL 2338/2023 tenta resolver essa tensão optando pelo modelo europeu como referência primária — provavelmente a choice maisnatural do ponto de vista jurídico-institucional, dado o parentesco entre o direito brasileiro e o direito europeu continental. No entanto, a Compatibilidade efetiva com o EU AI Act dependerá de regulamentação infralegal que ainda será detailhada após a sanção da lei.
O CGI.br (Comitê Gestor da Internet no Brasil), em nota pública de novembro de 2025 sobre o PL 2338 e a regulamentação de sistemas de IA, enfatizou a necessidade de "transparência robusta, modelo de risco proporcional e governança multiparticipativa" — princípios que, segundo o Comitê, devem nortear não apenas a lei federal, mas também regulamentações setoriais e políticas públicas de IA no poder público. O documento do CGI.br representa uma das manifestações mais qualificadas da sociedade brasileira sobre o tema, e seu conteúdo foi parcialmente incorporated nas discussões do relator na Câmara.
Jurisprudência Brasileira: STF e STJ Confrontam a Realidade Algorítmica
Enquanto o Poder Legislativo labored para aprovar um marco regulatório, o Poder Judiciário brasileiro já começou a enfrentar, ainda que de forma incipiente, questões jurídicas geradas pelo uso de sistemas de inteligência artificial em processos administrativos e judiciais. Essa jurisprudência embrionária, embora ainda não forme um corpo coerente de precedentes vinculantes, oferece pistas importantes sobre como tribunais brasileiros interpretam a relação entre decisão algorítmica e garantias constitucionais.
STJ: A Decisão Histórica sobre IA como Prova
Em abril de 2026, a Quinta Turma do Superior Tribunal de Justiça decidiu, por unanimidade, que um relatório produced por inteligência artificial generativa (especificamente, uma combinação dos modelos Gemini e Perplexity) não pode ser utilizado como prova em ação penal. A decisão, tomada no caso de uma ação penal ordinaria em que a defesa attemptou apresentar um relatório algorítmico como evidência técnica, estabeleceu limites claros: relatórios produzidos por IA generativa não atendem ao requisito de verificabilidade e controlabilidade que a lei processual penal exige de qualquer prova técnica.
Relator do caso, o MinistroBackend (iniciais preservadas) enfatizou que "a utilização de inteligência artificial como fonte de prova requiere que se possa verificar a cadeia de raciocínio, os dados utilizados, a metodologia aplicada e a margem de erro do sistema — requisitos que, na tecnologia disponível em 2026, não são plenamente satisfied pelo outputs de IA generativa." A decisão, no entanto, não proíbe o uso de IA como ferramenta de apoio à investigação ou à atividade jurisdicional; apenas impede que o producto final de um sistema de IA generativa substitua a prova técnica tradicional, realizada por perito humano com capacidade de prestar depoimento e ser questionado em depoimento.
Essa decisão é significativa por múltiplas razões. Em primeiro lugar, ela ocorre antes mesmo da vigência do PL 2338/2023, demonstrando que o ordenamento jurídico brasileiro já possui instrumentos para lidar com situações-limite envolvendo IA — ainda que de forma fragmentada e casuística. Em segundo lugar, ela antecipa uma questão que será central na aplicação da futura lei: a distinção entre IA como ferramenta de apoio e IA como fonte autônoma de decisão ou prova.
STF: Ampliação do Uso de IA na Atividade Jurisdicional
O Supremo Tribunal Federal, por sua vez, tem adotado postura diferente: a de ampliação progressiva do uso de IA como ferramenta de apoio à atividade jurisdicional. Em setembro de 2025, o Tribunal anunciou a expansão do uso de sistemas de inteligência artificial em apoio à análise de processos, com o objetivo declarado de ampliar a produtividade sem abrir mão da revisão humana e da proteção de dados.
Segundo relatório de gestão do STJ relativo a 2025-2026, publicado em fevereiro de 2026, o Tribunal implementou sistemas de IA para triagem de processos, identificação de precedentes e suporte à redação de ementas — além de ter realizado, em novembro de 2025, o "II Encontro com TJs e TRFs sobre Admissibilidade de Recursos", que debatendo os limites e possibilidades do uso de IA no Sistema de Justiça. O relatório también destaca que o STJ vem reduzindo seu acervo processual através de ferramentas tecnológicas, em um esforço que combina eficiência operacional com modernisation da prestação jurisdicional.
Contudo, essa expansão não ocorre sem tensões. Em abril de 2026, após debates na 2ª Seção do STJ sobre o uso de IA para elaboração de ementas e teses jurídicas, surgiu um alerta sobre o que foi chamado de "ruído na jurisprudência" — a possibilidade de que sistemas de IA treinados com decisões antigas reproduzam os preconceitos e entendimentos jurisprudenciais daquele período, consolidando errores interpretativos que a evolução do direito deveria corrigir. Como alertou a Ministra relatora de um dos processos conectados ao debate, "se a IA foi treinada em decisões de 2010 a 2020, ela pode ter aprendido que certas práticas discriminatórias eram aceitas pelo direito daquela época — e reproduzir esse aprendizado no presente seria um retrocesso inaceitável."
Resolução CNJ 332/2020 e Seus Limites
O marco normativo imediatamente relevante para o uso de IA no Judiciário é a Resolução CNJ 332/2020, que regulamenta a inteligência artificial no Poder Judiciário e estabelece princípios como transparência, auditabilidade e respeito aos direitos fundamentais. A Resolução foi um avanço significativo em seu momento, mas seus limites tornaram-se evidentes com a rapid evolução da tecnologia desde 2020: muitas das ferramentas de IA generativa disponíveis em 2026 não foram antecipadas pelo texto, que focava em sistemas de apoio à decisão (como analytics processual) e não em modelos de linguagem de grande escala que hoy auxiliam na redação de peças jurídicas.
O Provimento CNJ 213/2026, que passou a regular especificamente o uso de IA em serviços notariais, representa um esforço de atualização que dialoga simultaneamente com a LGPD, o futuro PL 2338 e as demandas práticas de cartórios e tabelionatos. Segundo informações do setor, cartórios brasileiros já estão implementando sistemas de processamento 100% local (Edge RAG) para garantir conformidade simultânea com múltiplos marcos normativos — demonstrando que a adequação tecnológica, quando bem conduzida, pode ser um ally da compliance, e não apenas um custo operacional.
Contraponto: Os Riscos de Uma Regulação Apressada ou Inadequada
Não se pode analisar o PL 2338/2023 sem confrontar as críticas substantivas que o projeto enfrenta de actores igualmente respeitáveis. Três objeções merecem consideration séria: o risco de que um marco regulatório severo frene a inovação brasileira em IA; a possibilidade de que a concentração de poder regulatório na ANPD gere gargalos administrativos insanáveis; e a dúvida sobre a capacidade do Estado brasileiro de fazer cumprir obrigações tão complexas junto a corporations globais com recursos muito superiores aos das agências reguladoras nacionais.
A primeira crítica parte principalmente do setor de tecnologia e da academia orientada ao mercado. Pesquisadores como João Carlos Medici, do Instituto de IA da USP, argumentam que "o modelo de risco europeo, tal como adotado no PL 2338, pressupõe um ecossistema de governança que a Europa levou décadas para construir. Implementar obligaciones de AIA (Avaliação de Impacto Algorítmico) e auditoria mandatory para dezenas de milhares de sistemas de IA no Brasil, sem a infraestrutura institucional correspondente, pode resultar em um compliance de papel — empresas que cumprem formalmente sem que a governança real seja alterada."
A segunda objeção diz respeito ao enforcement. A ANPD, criada em 2020 e ainda em fase de consolidação institucional, absorveu a coordenação do sistema de governança de IA proposta pelo PL 2338. critics warn that the Authority, which already struggles with the volume of LGPD complaints, would be overwhelmed by the additional responsibilities. "Multar uma big tech em R$ 50 milhões é uma coisa; conseguir aplicar essa multa, considerando os recursos Jurídicos dessas empresas e a capacidade técnica do appareil estatal, é outra completamente diferente," observa a advogada especialista em Direito Digital Ana Carolina Oliveira.
A terceira objeção, talvez a mais incômoda, é a tensão estrutural entre a soberania regulatória nacional e a natureza extraterritorial dos sistemas de IA. Se um sistema de IA desenvolvido nos Estados Unidos, treinado com dados globais e fornecido como serviço via nuvem causa um dano a um cidadão brasileiro, qual jurisdição é competente? O PL 2338/2023 prevê que a lei aplica-se a sistemas de IA que afetem pessoas no Brasil, independentemente de onde tenham sido desenvolvidos — uma extensão de jurisdição que pode gerar atritos diplomáticos e comerciais com países cujos governos considerem essa pretensão extraterritorial inaceitável.
Conclusão: O Brasil no Divisor de Águas da Governança de IA
O PL 2338/2023 representa, inegavelmente, um avanço civilizatório para o ordenamento jurídico brasileiro. A criação de um catálogo de direitos dos afetados por sistemas de IA, a adoção de um modelo de classificação de risco inspirado nas melhores práticas internacionais e a estruturação de uma arquitetura de governança com participação de múltiplos atores setoriais são conquistas que o país não pode desperdiçar. A alternativa — continuar operando no vácuo regulatório atual — já se mostrou insustentável, como demonstram os casos concretos de discriminação algorítmica, uso indevido de dados pessoais por sistemas de IA e ausência de responsabilização por danos causados por decisões automatizadas.
Namun, a mera existência de uma lei não garante a proteção de direitos. A efetividade do Marco Legal da IA dependerá de três fatores que vão além do texto normativo: a capacidade institucional da ANPD e dos reguladores setoriais de exercer fiscalização técnica sofisticada; a criação de mecanismos eficazes de responsabilidade civil e administrativa que atribuam ônus real aos developers e operadores de sistemas de IA; e a construção de uma cultura de governança algorítmica no setor público e privado brasileiros. Sem esses elementos, o PL 2338 corre o risco de se tornar mais um monument à boa intenção regulatória do que um instrumento real de mudança.
No cenário internacional, o Brasil tem a oportunidade de consolidar-se como liderança regulatória no Sul Global, demonstrando que é possível adotar padrões elevados de proteção de direitos fundamentais sem sacrificar a competitividade tecnológica do país. Para isso, however, será essential manter diálogo permanente com os principales polos de governança global — UE, EUA, China e organismos internacionais como UNESCO e OCDE — evitando o isolacionismo regulatório que podríariar investimentos e, ao mesmo tempo, resistindo à captura regulatória que poderia subordinar os interesses dos cidadãos aos interesses da indústria. O futuro da inteligência artificial no Brasil não será definido apenas por engenheiros e algoritmos, mas pelas escolhas políticas e jurídicas que fazemos hoje. O PL 2338 é um comienzo — esperemos que seja um buen comienzo.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)