Welcome!

Unlock your personalized experience.
Sign Up

Marco Legal da Inteligência Artificial no Brasil: PL 2338/2023 e os desafios regulatórios em 2026

O Projeto de Lei 2338/2023 avança na Câmara e promete transformar o ecossistema de IA no Brasil. Entenda o cenário regulatório.

April 27, 2026 - 00:05
0 1
Marco Legal da Inteligência Artificial no Brasil: PL 2338/2023 e os desafios regulatórios em 2026

IMAGE_SOURCE: Unsplash

CATEGORY_ID: 21


Introdução e Contexto Histórico

A inteligência artificial representa uma das transformações tecnológicas mais profundas da história contemporânea, e o Brasil enfrenta o desafio de construir um marco regulatório que concilie inovação com a proteção de direitos fundamentais. O Projeto de Lei 2338/2023, de autoria do presidente do Senado Federal, Rodrigo Pacheco, constitui a principal iniciativa legislativa nacional para estabelecer normas gerais sobre o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial no território brasileiro.

OPL 2338/2023 aguarda apreciação pela Câmara dos Deputados após ser aprovado pelo Senado Federal em 2024. A proposta estabelece princípios, direitos, deveres e mecanismos de governança para o ecossistema de IA nacional, inspirando-se em grande medida no AI Act da União Europeia, que entrou em vigor em 2024 e começou a produzir efeitos práticos a partir de 2025, com obrigações de transparência programadas para agosto de 2026.

O Brasil ocupa posição de destaque no cenário global de IA. Pesquisa da Logicalis conduzida em 2025 indicou que 83% das organizações brasileiras planejam manter ou ampliar seus investimentos em inteligência artificial nos próximos doze meses, cifra que evidencia a magnitude do ecossistema que a regulamentação pretende impactar.

Estrutura Regulatória e Classificação por Risco

O modelo adotado pelo PL 2338/2023 estrutura a abordagem regulatória a partir da classificação de sistemas de IA por nível de risco, num formato que guarda estreita correspondência com o AI Act europeu. Essa metodologia classifica os sistemas em quatro categorias distintas: risco excessivo ou proibido, risco alto, risco limitado e risco mínimo ou irrisório.

Os sistemas classificados como de risco excessivo são aqueles cuja utilização é vedada pela legislação, compreendendo práticas que envolvam manipulação subliminar, exploração de vulnerabilidades específicas ou mecanismos de pontuação social em contextos sensíveis. Os sistemas de alto risco abrangem aplicações em áreas críticas como saúde, justiça, emprego, serviços financeiros e infraestrutura vital, ficando sujeitos a obrigações rigorosas de transparência, documentação, rastreabilidade e auditoria.

As aplicações de risco limitado incluem sistemas que interagem diretamente com pessoas, como chatbots e ferramentas de reconhecimento de conteúdo gerado por IA, que demandam a observância de obrigações específicas de transparência para que os usuários tenham ciência de que estão se comunicando com um sistema automatizado. Já os sistemas de risco mínimo ficam sujeitos a regime mais flexível, sem imposição de obrigações adicionais além daquelas já previstas na legislação ordinária.

Princípios Fundamentais e Direitos dos Titulares

OPL 2338/2023 estabelece um conjunto de princípios que orientarão toda a implementação da regulamentação, entre os quais se destacam a manusia-centricidade e a preservação dos direitos fundamentais como pilares centrais da política de IA. O texto consagra a necessidade de que o desenvolvimento tecnológico ocorra em beneficio da pessoa humana, mirando a inclusão e a redução das desigualdades.

Entre os princípios normatizados, figuram a segurança, a boa-fé e a não discriminação, a inovação e desenvolvimento econômico sustentável, a privacidade e a proteção de dados pessoais, a transparência e a explicabilidade, a adequação e a proporcionalidade, e a responsabilidade e prestação de contas. Cada um desses princípios opera como diretriz interpretativa para agentes reguladores, operadores do direito e desenvolvedores de sistemas de IA.

O projeto assegura aos titulares de direitos o acesso à informação sobre a utilização de sistemas automatizados que afetem suas vidas, bem como o direito de revisão de decisões tomadas exclusivamente por sistemas algorítmicos em contextos que importem efeitos jurídicos significativos. O direito à explicação constitui inovação relevante, ao impor que desenvolvedores e operadores de sistemas de IA forneçam fundamentação compreensível para decisões automatizadas que impactem individuals.

Governança e Mecanismos Institucionais

O texto prevê a instituição do Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial, sob coordenação do Ministério da Ciência, Tecnologia e Inovação. Esse sistema funcionará como arcabouço institucional para articulação entre órgãos governamentais, entidades de pesquisa, setor produtivo e sociedade civil na formulação e implementação da política de IA.

A proposta estabelece ainda a criação de um Conselho Consultivo de IA, com composição multiectorial, tasked da missão de recomendar políticas públicas, avaliar o impacto regulatório das normas e propor ajustes ao arcabouço jurídico à medida que a tecnologia evolui. A participação de representantes de setores diversos reflete a compreensão de que a governança de IA não pode ser responsabilidad exclusiva do poder público, demandando esforço coletivo.

O modelo de governança proposto representa evolução significativa em relação à mera regulação por comando e controle. Ao prever mecanismos de articulação federativa e participação sociale, o PL 2338/2023 reconhece a complexidade do ecossistema de IA e a necessidade de respostas regulatórias adaptáveis.

Desafios e Impasses na Tramitação

Apesar de figurar como prioridade na agenda legislativa do Congresso Nacional para 2026, conforme documento elaborado por entidades do setor industrial, a votação do PL 2338/2023 na Câmara dos Deputados enfrenta obstáculos relevantes. A quantidade de atores envolvidos, a complexidade técnica das disposições e a ausência de consenso sobre pontos sensíveis contribuem para a lentidão do processo legislativo.

Entre os pontos de maior controvérsia, destacam-se as questões relativas a responsabilidade civil por danos causados por sistemas de IA, a extensão das obrigações de transparência em sistemas de alto risco, e os critérios para definição de sistemas de risco excessivo. O setor industrial tem proposto ajustes no texto com o argumento de que obrigações excessivamente onerosas poderiam comprometer a competitividade nacional.

OPL 2338/2023 também estabelece correlação com o Marco Civil da Internet (Lei 12.965/2014), alterando dispositivos relativos à obrigatoriedade de aviso ao usuário sobre o tratamento de dados pessoais. Essa conexão evidencia a natureza transversal da regulação de IA, que incide sobre múltiplos domínios da ordem jurídica.

Comparação Internacional e Contexto Global

A regulamentação brasileira se insere em movimento global de construção de marcos legais para IA. A União Europeia concluíu a implementação do AI Act, que representa o mais abrangente regime regulatório de IA no mundo. Os Estados Unidos adotam abordagem mais descentralizada, relying on diretrizes setoriais e legislação estadual, enquanto a China editou regulamentos específicos para algoritmos e serviços de recomendação.

Essa diversidade de abordagens revela tensão permanente entre imperativos de inovação e proteção de direitos. O modelo europeu, baseado em classificação por risco e obrigações proporcionais, tem sido referenci internationale para diversos países em desenvolvimento, incluindo o Brasil. A proximidade cultural e jurídica com o modelo europeu, somada à compatibilidade técnica dos sistemas regulatórios, torna essa参照ência particularmente relevante.

As regras de transparência do AI Act europeo entrarão em vigor em agosto de 2026, o que intensifica a atenção internacional sobre os desenvolvimentos regulatórios brasileiros naquele período. Empresas brasileiras que operam em mercados internacionales ou que utilizam sistemas de IA desenvolvidos em jurisdições sujeitas ao AI Act deberán observar双重 conformidade, o que reforça a importância de marco regulatório nacional claramente definido.

Impactos para o Ecossistema Nacional

O cenário regulatório brasileiro terá implicações diretas sobre múltiplos setores econômicos. A indústria de tecnologia, as fintechs, as empresas de saúde digital, os setores financeiros e as aplicações governamentais de IA serão afetados por obrigações específicas que o PL 2338/2023 pretende imponer.

O investimento de R$ 666 bilhões em transformação digital que as empresas brasileiras sollen canalizar entre 2023 e 2026, conforme estimativas do setor de Tecnologia da Informação e Comunicação, serão parcialmente condicionados pela conformidade com as normas do marco legal da IA. Empresas que anteciparem os requisitos regulatórios podráo obter vantagem competitiva ao desenvolverem processos internos de governança de IA com maior antecedência.

O marco legal também representa oportunidade para o desenvolvimento de soluções de IA responsáveis Made in Brazil, que possam atender não apenas ao mercado nacional, mas também exportar modelos regulatórios e práticas de governança para outros países em desenvolvimento.

Perspectivas e Expectativas para 2026

Oano de 2026 representa momento decisivo para a concretização do marco legal brasileiro de IA. A aprovação do PL 2338/2023 pela Câmara dos Deputados e subsequente sanção presidencial sinalizaria o compromisso do Brasil com uma abordagem responsável e progressista no ámbito da inteligência artificial.

Especialistas ouvidos pelo Olhar Digital em janeiro de 2026 destacaram que a regulamentação avançou em 2025, porém deixou lacunas que deberán ser preenchidas ao longo de 2026. Questões como mecanismos de enforcement, capacidade técnica dos órgãos reguladores e harmonização com legislações setoriais existentes permanecem como desafios em aberto.

O equilíbrio entre criatividade regulatória e pragmatismo operacional definirá o sucesso do marco legal brasileiro. A experiência internacional, especialmente o proceso de implementação do AI Act europeo, oferece lições valiosas que poderão ser incorporadas ao contexto nacional, evitando erros custosos e aproveitando boas práticas já consolidadas.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User