Welcome!

Unlock your personalized experience.
Sign Up

PL 2338 e a regulacao da inteligencia artificial no Brasil: o que muda na pratica

O projeto de lei que cria o marco legal da IA no Brasil avanca na Camara dos Deputados apos aprovacao unanime no Senado. A proposta classifica sistemas por risco, cria direitos para os afetados e estabelece um regime de sancoes que pode chegar a R$ 50 milhoes.

May 06, 2026 - 22:32
0 1
PL 2338 e a regulacao da inteligencia artificial no Brasil: o que muda na pratica
Dirhoje
Dirhoje

O que aconteceu e por que importa

O Projeto de Lei numero 2.338 de 2023, que institui o marco legal da inteligencia artificial no Brasil, foi aprovado por unanimidade no Senado Federal em 10 de dezembro de 2024 e remetido à Cámara dos Deputados em marco de 2025, onde permanece em tramitacao no ambito de uma Comissao Especial. O texto, de autoria do presidente do Senado Rodrigo Pacheco, consolida mais de cinco anos de debates, audiencias publicas e refinamentos tecnicos que envolveram mais de 300 especialistas, empresas, academia e representantes da sociedade civil. Trata-se do primeiro projeto de lei brasileiro dedicado exclusivamente a regulamentar o desenvolvimento, a comercializacao e o uso de sistemas de inteligencia artificial no pais. A sua importancia nao se limita ao ambito tecnologico: o projeto estabelece um modelo de governanca que afetara diretamente setores como saude, financas, justica criminal, educacao e emprego, alem de criar um catalogo de direitos para qualquer pessoa afetada por decisoes automatizadas. Se aprovado no formato atual, o Brasil se tornara um dos primeiros paises do Sul Global a contar com um marco regulatorio especifico para a IA, num momento em que a tecnologia ja permeia decisoes cotidianas de milhoes de brasileiros.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

O PL 2338 estrutura-se em torno de tres eixos principais: uma classificacao de sistemas de IA por nivel de risco, inspirada no modelo do AI Act europeo; um conjunto de direitos assegurados às pessoas afetadas por decisoes automatizadas; e um regime de governanca e sancoes que atribui à Autoridade Nacional de Protecao de Dados o papel de coordenacao do sistema. O projeto cria ainda o Sistema Nacional de Regulacao e Governanca de Inteligencia Artificial, conhecido pela sigla SIA, e estabelece a possibilidade de aplicacao de multas de ate cinquenta milhoes de reais por infracao, alem da proibicao expressa de praticas como a pontuacao social de cidadaos pelo Estado e o reconhecimento de emocoes em ambientes de trabalho e educacao. A tramitacao atual na Camara dos Deputados ocorre sob relatoria do deputador Aguinaldo Ribeiro e presidéncia da deputadora Luisa Canzieri, com expectativa de votacao final no ambito da Comissao Especial durante o ano legislative de 2026. O modelo de classificacao por risco adotado pelo texto brasileiro guarda semelhanca com o AI Act europeo, embora apresente especificidades que refletem o contexto constitucional e regulatorio nacional. A coordinacao entre orgaos como ANPD, Banco Central, ANVISA e ANATEL sugere uma abordagem multissetorial que tenta equilibrar especializacao tecnica com coerencia centralizada na governanca de IA.

Contexto historico e regulatorio

A trajetoria legislativa do marco legal da IA no Brasil e mais longa do que sugere a numeracao do PL 2338. O PL 21/2020, primeira iniciativa especifica sobre o tema, foi apresentado na Camara dos Deputados em fevereiro de 2020 e aprovado naquela Casa em setembro de 2021, antes de dar origem ao PL 2338 no Senado. O senator Rodrigo Pacheco apresentou seu proprio texto em maio de 2023, consolidando as iniciativas anteriores num unico projeto que passou a servir de base para a discussao. Em dezembro de 2023, o Senado instalou a Comissao Temporaria de Inteligencia Artificial, a CTIA, que promoveu audiencias publicas ao longo de 2023 e 2024 e resultou no relatorio final elaborado pelo senator Eduardo Gomes, doMDB do Tocantins. Esse relatorio incorporou contribuicoes de mais de 300 participantes e serviu de base para a votacao simbolica unanime de dezembro de 2024. A cronologia mostra que a regulamentacao da IA no Brasil seguiu um caminho de amadurecimento gradual, com participacao plural e multissetorial, o que distingue o processo de legislacoes apressadas ou de alcance limitado.

Os marcos historicos brasileiros de protecao de dados e de direitos digitais forneceram a infraestrutura juridica sobre a qual o PL 2338 se apoia. A Lei Geral de Protecao de Dados, de 2018, ja assegurava o direito a revisao de decisoes automatizadas no artigo 20 e impunha obrigacoes de transparencia e finalidade a todo tratamento de dados no artigo 6. Essa experiencia regulatoria consolidou no pais uma cultura de compliance baseado em risco e criou expectativas concretas nos cidadaos sobre seus direitos frente a sistemas algoritmicos. A ANPD, criada pela LGPD, ja sinalizou disposicao para atuacao coordenada em materia de IA, tendo publicado em dezembro de 2025 um mapa de temas prioritarios que inclui o assunto. Nesse sentido, o PL 2338 nao parte do zero: ele dialoga com um ecosistema regulatorio ja existente, a LGPD, e busca integra-lo numa arquitetura mais ampla e especifica para sistemas de inteligencia artificial.

Dados, evidencias e o que os numeros mostram

A classificacao de risco proposta pelo PL 2338 estabelece quatro niveis distintos de categorizacao dos sistemas de IA, com obrigacoes proporcionais ao nivel de risco identificado. No nivel de risco inaceitavel, expressamente proibidos, incluem-se armas autonomas letais, pontuacao social governamental, tecnicas subliminares que explorem vulnerabilidades, reconhecimento de emocoes em contextos de trabalho e educacao, e a coleta indiscriminada de imagens faciais em ambientes publicos. No nivel de alto risco, que abrange sistemas de triagem curricular, analise de credito e risco financeiro, diagnostico de saude, avaliacao educacional, analise de reincidencia criminal e vigilancia biometrica, alem de vigilancia de infraestrutura critica, o texto exige avaliacao de impacto algoritmico previa, governanca com logs e auditorias, supervisão humana efetiva e documentacao tecnica completa. Para sistemas de risco baixo ou moderado, como chatbots e assistentes virtuais, as exigencias resumem-se a transparencia basica e identificacao de conteudo gerado por IA.

Os numeros economicos associados ao setor de inteligencia artificial no Brasil reforcam a necessidade de regulamentacao. Levantamentos do setor indicam que o mercado brasileiro de IA deve movimentar mais de cinquenta bilhoes de reais anualmente na proxima decada, com aplicacoes em areas que vao desde a automacao bancaria ate sistemas de suporte a diagnostico medico. Na pratica, a ausencia de marco regulatorio especifico expunha usuarios e empresas a incertezas juridicas que podiam comprometer investimentos e a confianca no ecossistema. As sancoes previstas no projeto variam de advertencia e obrigacao de adequacao para infracoes leves, passando por multas de ate dois por cento do faturamento com limite de cinquenta milhoes de reais para infracoes medias e graves, ate a prohibicao total de operar no caso de infracoes gravissimas. Reincidencia dobra o valor da multa, o que cria um regime de penalidades que, na pratica, pode ser letal para startups e pequenas empresas que nao investirem em compliance desde o inicio.

Impactos praticos e consequencias

Para o setor de saude, o impacto do PL 2338 sera significativo. Sistemas de diagnostico assistido por IA, triagem de pacientes e priorizacao de atendimento ficarao sujeitos a obrigacoes rigorosas de documentacao e supervisão humana. Hospitais e laboratorios que ja utilizam ferramentas de analise de imagens medicas assistidas por algoritmos precisarao conduzir avaliacoes de impacto algoritmico antes de manter ou expandir esses sistemas em operacao. Para o setor financeiro, que utiliza IA extensivamente em analise de credito, gestao de risco e deteccao de fraudes, a classificacao de alto risco imposta pelo projeto implica compliance mais pesado, com exigencias de explicabilidade das decisoes algoritmicas que sustentam negocios de credito. Bancos e instituicoes financeiras precisarao garantir que analistas humanos possam revisar decisoes automatizadas de credito quando exigidas pelos clientes afetados, sob pena de multas que podem alcangar cinquenta milhoes de reais por infracao. O setor de recursos humanos tambem sera impactado, ja que sistemas de recrutamento e selecao automatizada entram na categoria de alto risco, exigindo avaliacao de impacto previa e mecanismos de contestacao por candidatos.

Para advogados e escritorios de advocacia, o marco legal abre um novo mercado de trabalho relacionado ao compliance de IA, com demanda por politicas internas de uso de ferramentas de inteligencia artificial, avaliacoes de impacto algoritmico e assessoramento regulatorio para empresas que precisam se adequar. Escritorios que utilizam IA em nuvem sem acordos de tratamento de dados, sem politica interna e sem avaliacao de impacto poderao ser enquadrados como usuarios nao conformes, com exposicao a multas proporcionais ao faturamento. Para a sociedade civil e os cidadaos em geral, os direitos criados pelo projeto representam um avanco concreto: o direito a informacao previa, o direito a explicacao de decisoes algoritmicas, o direito a revisao humana e o direito a nao-discriminacao algoritmica dao aos afetados instrumentos para exigir transparencia e responsabilizacao de empresas e orgaos publicos que utilizam sistemas automatizados de decisao. A protecao contra discriminacao algoritmica com base em raa, genero, orientacao sexual, religiao, conviccao politica, condicao socioeconomica ou deficiencia cria um novo paradigma de responsabilidad social para o setor de tecnologia.

Contrapontos, criticas e limites da analise

O setor de tecnologia e representacoes empresariais apresentam criticas substanciais ao texto aprovado pelo Senado. Entidades como a Associacao Brasileira de Startups e associacoes do setor de tecnologia argumentam que o modelo de compliance ex ante, que impõe obrigacoes anteriores ao uso do sistema, cria barreiras desproporcionais para startups e pequenas empresas que nao dispõem de equipes juridicas e tecnicas para conduzir avaliacoes de impacto algoritmico complexas. A critica se concentra na assimetria de custos: empresas grandes com recursos para compliance poderao absorver as exigencias, enquanto jovens empresas inovadoras poderao ser impedidas de competir no mercado por exigencias regulatorias que consideram tecnicamente inviaveis de implementar sem equipes dedicadas. Ha tambem questoes tecnicas pendentes: a exigencia de transparencia sobre quais obras protegidas foram utilizadas no treinamento de modelos de IA generativa e considerada pelo setor tecnologico como de dificil operacionalizacao, dado o caracter iterativo e massivo do processo de treinamento de grandes modelos de linguagem.

Organizacoes da sociedade civil e movimentos de defesa de direitos digitais contrapõem-se a essa visao por angulo distinto. Defensores de direitos civis apontam que o texto aprovado pelo Senado ja havia sido esvaziado em pontos considerados criticos durante a tramitacao na CTIA. A ausencia de salvaguardas trabalhistas relacionadas a automacao e a falta de regras substanciais sobre direitos autorais no treinamento de sistemas de IA generativa sao as principais queixas desse grupo. O Instituto de Tecnologia e Equidade Digital e associacoes da area de direitos digitais argumentam que o texto prioriza a seguranca juridica do setor de tecnologia em detrimento da protecao efetiva de trabalhadores afetados pela automacao e de artistas e criadores cujas obras sao utilizadas para treinar modelos generativos sem compensacao. Essa divergencia revela um ponto critico do debate: de um lado, a innovacao e a competitividade do setor tecnologico nacional; de outro, a protecao de direitos fundamentais e a redistribuicao dos custos da automacao. O projeto de lei complementar apresentado pelo Poder Executivo em dezembro de 2025 para corrigir o vicio de iniciativa identificado adiciona mais uma camada de complexidade ao processo, ja que a fusao dos dois textos podera gerar novas discussoes sobre competencias e alcances regulatorios.

Cenarios e sintese

O cenario mais provavel para o PL 2338 e a aprovacao pela Camara dos Deputados durante o ano legislative de 2026, com possiveis alteracoes pontuais no texto enviado pelo Senado, seguida de sancao presidencial e entrada em vigor ao longo de 2027, com fase de adaptacao que podera variar conforme o porte da empresa e o nivel de risco do sistema operado. Esse cenario manteria o Brasil entre os primeiros paises do Sul Global a contar com marco legal especifico para IA, com reflexos positivos na confianca do ecossistema de innovacao e na capacidade de atracao de investimentos estrangeiros que consideram a ausencia de regulamentacao um fator de incerteza juridica. No entanto, um cenario alternativo, menos provavel porem relevante, aponta para novos atrasos na tramitacao provocados por disputas setoriais e pelo calendario eleitoral de 2026, o que adiaria a votacao final para o proximo mandato legislativo e manteria o vacuo regulatorio em um momento de acelerada adocao de sistemas de IA em areas criticas. Se esse segundo cenario se concretizar, o vacuo normativo continuara sendo preenchido pela LGPD e pela jurisprudencia dos tribunais, numa dinâmica que tende a ser mais lenta e menos previsivel do que uma lei especial dedicada. A experiencia internacional, especialmente a implementacao do AI Act europeo a partir de 2025, devera influenciar significativamente a interpretacao e a aplicacao do marco legal brasileiro quando este entrar em vigor, criando oportunidades de harmonizacao regulatoria entre blocos economicos.

A sintese do debate indica que o PL 2338 representa um avanco substantivo na regulamentacao da inteligencia artificial no Brasil, com um modelo de classificacao por risco inspirado em padroes internacionais e um catalogo de direitos que da aos cidadaos instrumentos concretos de protecao contra decisoes algoritmicas opacas ou discriminatorias. As criticas do setor produtivo e da sociedade civil revelam tensoes reais entre innovacao, competitividade e protecao de direitos fundamentais, tensoes que o processo legislativo brasileiro esta tentando equilibrar com instrumentos ainda nao testados em escala. O acompanhamento da tramitacao na Camara dos Deputados, as alteracoes propostas pelo relator e a possivel fusao com o projeto de lei complementar do Executivo merecem atencao permanente de advogados, empresas e cidadaos que pretendem operar dentro da legalidade ou exigir seus direitos frente a sistemas de IA. O grau de detalhamento tecnico do texto e a multiplicidade de atores envolvidos sugerem que a regulamentacao da IA no Brasil, quando aprovada, deveramantermanterum periodo significativo de ajustes atraves de regulamentos complementares e instrucoes normativas. A vigilencia constante dos operadores afetados sera essencial para garantir que os direitos assegurados na lei nao permaneçam dead letter, ou seja, normas sem forca pratica de aplicacao.


Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje