A regulação da inteligência artificial no Brasil em 2026: PL 2338, o vácuo institucional e os caminhos possíveis
Análise do estado atual da tramitação do PL 2338/2023, os principais pontos de tensão entre Executivo e Legislativo, a comparação com marcos internacionais e os cenários para a votação que pode definir o futuro da IA no país.
O PL 2338 e seu lugar no debate regulatório
O Projeto de Lei 2338 de 2023, de autoria do presidente do Senado Rodrigo Pacheco, ocupa hoje o centro do debate sobre como o Brasil vai regular a inteligência artificial. A proposta chegou ao Senado Federal em 2023 e passou por tramitação que incluiu debates em comissões temáticas e a realização de audiências públicas com especialistas do setor tecnológico, da academia e da sociedade civil. Após aprovação no Senado, seguiu para a Câmara dos Deputados, onde permaneceu em análise durante boa parte de 2025 e início de 2026.
O texto original do PL 2338 estabelece princípios, diretrizes e regras para o desenvolvimento, o fomento e o uso ético e responsável de sistemas de inteligência artificial no território nacional. Entre os pontos previstos estão a classificação de risco dos sistemas de IA, a obrigatoriedade de transparência em sistemas de alto risco, a proteção de dados pessoais e direitos fundamentais, e a criação de um marco de governança para a supervisão da atividade. A proposta também aborda a questão dos direitos autorais sobre obras geradas por IA, um ponto de particular divergência com criadores de conteúdo e empresas de tecnologia.
Paralelamente ao PL 2338, o Poder Executivo enviou ao Congresso um projeto de lei alternativo que propõe um sistema diferente de governança para a inteligência artificial no país. O Executivo sustenta que o PL 2338 apresenta vício de iniciativa por ter origem no Legislativo, enquanto a matéria deveria ser proposta pelo próprio Executivo, conforme a sistemática constitucional. Esse impasse técnico, ainda não resolvido definitivamente, adicionou uma camada de complexidade à tramitação e contribuiu para o adiamento da votação para 2026.
Pontos de tensão no texto e no processo
Diversos pontos do PL 2338 geram disputas entre atores com interesses divergentes. O modelo de classificação de risco dos sistemas de IA, que segue inspirações do AI Act europeu, é visto por uns como um avanço na proteção de direitos fundamentais e por outros como um arcabouço excessivamente oneroso para empresas nacionais em fase de desenvolvimento. Especialistas em tecnologia argumentam que regras muito detalhadas podem tolher a inovação, enquanto defensores dos direitos dos consumidores argumentam que regras brandas deixariam a população vulnerável a sistemas de IA que afetam decisões de crédito, emprego e acesso a serviços públicos.
A questão dos direitos autorais sobre conteúdos gerados por inteligência artificial permanece sem definição conclusiva no projeto. O texto atual determina que sistemas de IA devem respeitar direitos de propriedade intelectual de terceiros, mas não estabelece mecanismo claro para identificação e remuneração de autores cujas obras foram utilizadas no treinamento de modelos. Esse ponto específico já gerou manifestações de entidades representativas de artistas, músicos, escritores e jornalistas, que cobraram do Congresso uma posição mais clara sobre o uso comercial de suas produções para alimentar bases de dados de IA.
O processo de consulta pública do PL 2338 mobilizou parcelas significativas da sociedade. Organizações de defesa de direitos digitais, institutos de pesquisa e empresas de tecnologia apresentaram contribuições ao texto, muitas delas contraditórias entre si. Empresas estrangeiras com operações no Brasil pressionaram por regras que não as impedissem de operar, enquanto startups nacionais defenderam apoio governamental para competição com players globais. A multiplicidade de interesses reflete a complexidade de uma indústria em formação acelerada, onde os contornos de mercado ainda não estão definidos.
A relação com o projeto alternativo do Executivo
O projeto de lei enviado pelo Executivo em dezembro de 2025 propõe um modelo de governança que, segundo o próprio governo, busca corrigir vícios de iniciativa do PL 2338. O texto alternativo concentra em órgãos da administração pública a competência para fiscalizar e regular sistemas de IA, em vez de criar uma estrutura descentralizada como previa o modelo legislativo. Setores empresariais manifestaram preocupações de que a concentração regulatória no Executivo pode criar rigidez excessiva e dificultar a inovação, enquanto organizações sociais argumentam que a supervisão governamental é indispensável para proteger direitos fundamentais.
Comparação com marcos internacionais
O AI Act da União Europeia, que entrou em vigor em agosto de 2024 e está sendo implementado de forma gradual, serve como referência inevitável nos debates brasileiros sobre regulação de IA. O regulamento europeu estabelece uma escala de risco que classifica sistemas de IA em categorias que vão de inaceitáveis a mínimo, com obrigações crescentes de transparência e compliance conforme o risco aumenta. O texto europeu também estabelece proibições para sistemas considerados de risco inaceitável, incluindo sistemas de pontuação social usados por governos para classificação de cidadãos.
A comparação com o modelo europeu é pertinente, mas não direta. Especialistas apontam que a União Europeia possui uma estrutura institucional consolidada, com agências reguladoras especializadas e tradição de enforcement que facilita a implementação de regras detalhadas. O Brasil, por sua vez, ainda carece de órgãos com competência específica em inteligência artificial, e a própria estrutura do Estado brasileiro para regulação tecnológica ainda está em construção. Além disso, o mercado europeu já possui maior maturidade em termos de adoção de IA por empresas e consumidores, o que permite criar regras mais específicas com base em evidências empíricas que no Brasil ainda são limitadas.
Nos Estados Unidos, a abordagem regulatória permanece fragmentada, com ausência de uma lei federal abrangente sobre IA. O governo americano optou por decretes executivos e orientações setoriais que estabelecem diretrizes sem força de lei vinculante. Essa abordagem, criticada por alguns como insuficiente e por outros como proporcional ao estágio da tecnologia, contrasta com o modelo europeu de regulação abrangente. Muitos analistas sustentam que o Brasil tende a seguir mais de perto o modelo europeu, dada a proximidade cultural e institucional, mas o desenho final dependerá das escolhas do Congresso.
Impactos regulatórios e incertezas para o setor
A ausência de um marco regulatório definido gera incertezas concretas para empresas que desenvolvem ou utilizam sistemas de IA no Brasil. Startups nacionais que planejam escalar seus produtos enfrentam dificuldade para dimensionar investimentos em compliance sem saber quais normas deverão cumprir. Empresas estrangeiras avaliam o cenário regulatório como fator na decisão de entrar ou expandir operações no mercado brasileiro. Setores como saúde, financeiro e educação, que utilizam IA em decisões com alto impacto sobre pessoas, manifestam preocupação com a possibilidade de que regras definidas posteriormente exijam modificações estruturais em sistemas já implementados.
Para os consumidores, a regulação incerta oferece uma leitura dupla. De um lado, a ausência de regras específicas deixa margem para o uso de sistemas de IA sem supervisão adequada, o que pode afetar desde decisões de crédito até conteúdos algorítmicos em plataformas digitais. De outro, a própria definição do que constitui risco inaceitável ou alto risco permanece em debate, o que significa que consumidores podem tanto se beneficiar de um ambiente mais flexível quanto ficar expostos a sistemas não auditados. Não há garantia de que a aprovação de uma lei resolverá essas ambiguidades de imediato: a implementação de regras exige tempo, recursos e estrutura institucional que o Brasil ainda não possui plenamente.
Contrapontos e limites da análise
É importante reconhecer que o debate sobre regulação de IA no Brasil possui distorções informacionais que afetam a qualidade da discussão pública. Setores empresariais frequentemente alertam que excesso de regulação prejudicará a competitividade brasileira no cenário global, mas carecem de estudos quantitativos que demonstrem, de forma empiricamente verificável, o nexo causal entre regras específicas e perda de inovação. Da mesma forma, organizações que defendem regras mais estritas nem sempre apresentam evidências de que os riscos apontados efetivamente se materializaram em cenários comparáveis ao brasileiro.
Outro limite significativo é o ritmo de evolução tecnológica, que pode tornar obsoletas disposições legais no momento em que forem sancionadas. Regras detalhadas sobre sistemas específicos de IA podem não se aplicar a tecnologias que surjam depois da publicação da lei, criando lacunas regulatórias que precisarão de atualização constante. Alguns especialistas defendem que a melhor estratégia regulatória seria estabelecer princípios gerais de proteção de direitos fundamentais e transparência, sem tentar detalhar obrigações específicas para tecnologias que ainda estão em formação.
Cenários para 2026 e síntese
As projeções para a votação do marco regulatório de IA no Brasil durante 2026 indicam ao menos três cenários prováveis. No cenário central, o PL 2338 é aprovado com modificações que equilibram interesses empresariais e preocupações com direitos fundamentais, com criação de uma estrutura de governança mista entre órgãos públicos e instâncias de participação social. Nesse cenário, a implementação efetiva das regras deve exigir período de adaptação de dois a três anos para que empresas e órgãos públicos se adequem às novas obrigações.
No cenário otimista, a aprovação da lei estimula investimentos em IA responsável e atrai capital estrangeiro para startups brasileiras de tecnologia, na medida em que investidores internacionais valorizam a previsibilidade regulatória. No cenário pessimista, a prolongada incerteza regulatória leva empresas a adiar investimentos ou migrar operações para jurisdições mais estáveis, e a lei aprovada acaba sendo tão genérica que não oferece proteção efetiva aos interesses em disputa.
O debate sobre regulação de IA no Brasil é, em última análise, um debate sobre como a sociedade brasileira quer que as decisões automatizadas afetem a vida das pessoas. As escolhas regulatórias não são neutras: definem quem responsabiliza por erros algorítmicos, quem tem acesso a dados para treinar modelos, quem paga o custo da transição tecnológica. A análise dos dados disponíveis indica que o Brasil está em um momento decisivo, no qual a decisão do Congresso terá efeitos duradouros sobre a estrutura do mercado de tecnologia e sobre a proteção de direitos fundamentais na era da inteligência artificial.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)