Marco Regulatório da Inteligência Artificial no Brasil: o que está em jogo no PL 2.338/2023
Análise aprofundada sobre o projeto de lei que pretende regular a IA no Brasil, seus principais mecanismos, disputas políticas envolvidas e os desafios reais de implementação.
O PL 2.338/2023 e a transformação da disputa política em tema técnico
A fase final de tramitação do Projeto de Lei nº 2.338/2023 transforma a inteligência artificial em um dos principais campos de disputa política de 2026. Com a abertura do ano legislativo, o presidente da Câmara dos Deputados, Hugo Motta, sinalizou que o tema é prioridade absoluta de fevereiro, antes que a pauta seja absorvida pelas articulações eleitorais de outubro. O debate não é técnico. Trata-se de poder institucional, soberania regulatória e controle democrático.
O texto que chega ao Plenário não é mais apenas o PL da IA. Trata-se do substitutivo do senador Eduardo Braga, construído a partir do Artificial Intelligence Act europeu, mas adaptado à realidade institucional brasileira. O projeto também se consolidou como vitrine política do senator Rodrigo Pacheco, que busca equilíbrio e um marco associado à modernização do Estado e à governança digital. A estratégia de Hugo Motta em priorizar a votação antes do período eleitoral não é casual: há pressão econômica significativa por trás do debate.
A pressa econômica por trás do debate técnico
Estudos da Agência Brasileira de Desenvolvimento Industrial indicam que a ausência de um marco regulatório claro vinha represando bilhões de reais em investimentos em data centers e infraestrutura digital. Esse dado ajuda a explicar a expectativa do Palácio do Planalto de sancionar a lei como gesto diplomático em direção à OCDE, organismo do qual o Brasil é candidato a ingressar. A regulação de IA se torna, assim, instrumento de política externa e atração de investimentos, o que amplia a pressão para aprovação antes das eleições.
O modelo brasileiro de governança em perspectiva comparada
Ao optar por uma lei geral de inteligência artificial baseada em riscos, o Brasil se posiciona de forma clara no cenário internacional. O modelo aproxima o país da União Europeia, afasta-o da lógica fragmentada dos Estados Unidos e rejeita o controle estatal amplo praticado pela China. Essa escolha define como o Estado brasileiro pretende exercer autoridade em um ambiente cada vez mais automatizado.
A definição brasileira de inteligência artificial segue os parâmetros da Organização para a Cooperação e Desenvolvimento Econômico, com foco em sistemas autônomos e adaptativos. A União Europeia adota lógica semelhante no AI Act, plenamente vigente desde agosto de 2025. Os Estados Unidos seguem sem uma definição federal única, regulando o tema por ordens executivas e iniciativas dispersas de agências como a Federal Trade Commission e o Department of Justice. A China, por sua vez, concentra sua regulação em algoritmos de recomendação e controle de conteúdo, com foco direto na estabilidade política do regime.
Como diferentes modelos tratam a fiscalização e os direitos dos cidadãos
O Marco Legal brasileiro centraliza a fiscalização na Autoridade Nacional de Proteção de Dados, em um arranjo semelhante ao AI Office europeu. Nos Estados Unidos, a fragmentação regulatória gera insegurança jurídica. Na China, a governança algorítmica é exercida por órgãos ligados à segurança do Estado, com baixa transparência e ausência de controle externo efetivo. No modelo brasileiro, ao menos no plano normativo, tanto o mercado quanto o próprio Estado ficam sujeitos à fiscalização.
Essa arquitetura institucional se reflete na proteção de direitos. O texto veda o ranqueamento social de cidadãos, garante o direito à explicação e à revisão humana de decisões automatizadas e inverte o ônus da prova em casos de discriminação algorítmica. São mecanismos alinhados à experiência europeia. Nos Estados Unidos, esses direitos não existem de forma estruturada em nível federal. Na China, sistemas de pontuação e vigilância integram a política pública.
Segurança pública, justiça e os limites da automação
O impacto político é evidente na segurança pública. O uso de reconhecimento facial em espaços públicos é permitido no Brasil apenas em situações restritas, como crimes graves e pessoas desaparecidas, sempre sob controle judicial. A União Europeia caminha para um banimento quase total dessa tecnologia. A China a utiliza de maneira ampla e contínua. Os Estados Unidos mantêm um cenário fragmentado, com cidades que proíbem a ferramenta e o governo federal que a utiliza em fronteiras. No Brasil, a regulamentação tenta equilibrar eficiência estatal e o risco de aprofundamento de vieses estruturais.
No sistema de justiça, o Marco Legal classifica sistemas decisórios como de alto risco e proíbe a delegação integral de atos jurisdicionais à inteligência artificial. A automação pode auxiliar magistrados, mas não substituir a decisão humana. A opção contrasta com a experiência chinesa dos chamados tribunais inteligentes e responde a um dilema democrático central: eficiência versus devido processo legal. Julgar permanece sendo uma função humana, e o texto tenta garantir que continue sendo.
O debate sobre responsabilidade civil e o lobbies das big techs
O consenso em torno do projeto é frágil. Uma bancada digital, transversal a partidos, pressiona por flexibilizações, especialmente na responsabilidade civil de sistemas de alto risco e na exigência de armazenamento de dados públicos em nuvens soberanas. Esse embate opõe setores do MDB, liderados por Eduardo Braga, a grandes empresas de tecnologia, sobretudo americanas. É nesse ponto que o debate técnico se transforma em disputa econômica concreta. Setores da indústria americana de tecnologia argumentam que regras excessivamente gravosas podem afastar investimentos e criar barreiras à inovação, enquanto defensores do texto respondem que a falta de regulação clara já funciona como barreira porque gera insegurança jurídica.
Interfaces com as regras eleitorais e o combate a deepfakes
O tema ganha urgência adicional em ano pré-eleitoral. A regulação de conteúdos sintéticos e deepfakes aproxima o Brasil da União Europeia e da China, que exigem rotulagem obrigatória, e o distancia dos Estados Unidos, onde acordos voluntários ainda predominam. No caso brasileiro, a escolha incorpora resoluções do Tribunal Superior Eleitoral ao texto legal, partindo do reconhecimento de que a desinformação algorítmica ameaça diretamente o processo democrático.
O TSE, por sua vez, aprova regras específicas para as eleições de 2026, incluindo a proibição de circulação de material fabricado ou alterado artificialmente entre as 72 horas anteriores e as 24 horas seguintes aos dias de votação. Esse vínculo entre o marco civil e as normas eleitorais revela uma característica do sistema regulatório brasileiro: a tendência a acumular camadas de proteção em vez de confiar em um instrumento único e abrangente.
Os gargalos de implementação e a estrutura fiscalizadora
O desafio central, porém, está na execução. O sucesso do texto dependerá de o governo Lula garantir, no Orçamento de 2026, recursos para estruturar a autoridade fiscalizadora, com a contratação de especialistas em auditoria algorítmica e capacidade técnica real de supervisão. Sem isso, a lei corre o risco de se tornar simbólica ou instrumentalizada politicamente. Especialistas alertam que a ANPD já opera com equipe reduzida frente às suas atribuições atuais, e assumir a fiscalização de sistemas de IA exigirá capacidade técnica que o órgão atualmente não possui.
Contrapontos, críticas e limites do Marco Legal
Há críticas relevantes ao texto. Uma primeira concerne à concentração de poder na ANPD, que acumularia papel de normatização, orientação e fiscalização, o que pode gerar conflitos de interesse e dificuldade de accountability. Outra crítica, vinda de organizações da sociedade civil, questiona a ausência de mecanismos de participação social na governança algorítmica, com decisões técnicas tomadas sem consulta pública estruturada. Setores empresariais, por outro lado, alegam que o modelo de classificação por risco é excessivamente burocrático e pode dificultar a inovação.
O marco também não resolve a questão da titularidade de direitos sobre conteúdos gerados por IA, um vazio normativo que pode gerar litígios complexos nos próximos anos. Da mesma forma, não estabelece regras sobre o uso de dados de treinamento, o que pode reproduzir vieses presentes nos conjuntos de dados internacionais nos quais os modelos brasileiros são baseados.
A incerteza sobre os efeitos concretos da lei
Há limitações importantes na avaliação do impacto potencial do marco. Primeiro, não há experiência brasileira prévia de regulação de IA em escala, o que torna difíceis tanto a projeção de efeitos quanto a calibração de exigências. Segundo, a tecnologia evolui rapidamente, e uma lei aprovada em 2026 pode estar desatualizada em pontos importantes já em 2028, o que exigiria ciclos de revisão mais frequentes do que os típicos em legislação brasileira. Terceiro, a eficácia do enforcement depende de capacidades técnicas que o país ainda está desenvolvendo, e não há garantia de que a fiscalização será capaz de acompanhar a velocidade de evolução dos sistemas.
Cenários e o que o Congresso está realmente decidindo
Ao votar o projeto, o Congresso decide menos sobre tecnologia e mais sobre como o Estado brasileiro pretende exercer poder em um ambiente cada vez mais automatizado. A escolha pelo modelo europeu, com autoridade fiscalizadora centralizada, classificação de risco, direitos de revisão humana e vedação a ranqueamento social, representa uma opção política clara: a de que o Estado deve ter papel ativo na proteção de direitos, mesmo que isso signifique restrições à liberdade de mercado. O sucesso dessa aposta depende menos de boas intenções normativas e mais da capacidade prática de implementar regras que o setor de tecnologia terá dificuldade real de descumprir.
Há dois cenários principais em discussão entre analistas. No cenário otimista, a lei cria um ambiente de previsibilidade regulatória que atrai investimentos, protege direitos fundamentais e posiciona o Brasil como referência em governança de IA no Sul Global. No cenário pessimista, a lei se mostra letra morta, válida no papel mas incapaz de ser efetivamente aplicada por limitações orçamentárias e técnicas, e termina sendo usada como instrumento de pressão política seletiva contra players menos influentes enquanto os maiores cumprem formalmente mas ficam isentos na prática.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)