Welcome!

Unlock your personalized experience.
Sign Up

O Marco Legal da Inteligência Artificial no Brasil: o que falta definir antes da votação final

Após cinco anos de debates, o Projeto de Lei 2338/2023 está perto de se tornar lei. O texto aprovado no Senado traz avanços na classificação de risco e na proteção de direitos, mas enfrenta vícios de iniciativa, conflitos sobre direitos autorais e incertezas sobre o modelo de governança que podem adiá-lo novamente.

May 05, 2026 - 08:17
0 0
O Marco Legal da Inteligência Artificial no Brasil: o que falta definir antes da votação final
Dirhoje
Dirhoje

O cenário regulatório e o histórico do projeto

Após mais de cinco anos de tramitação, o Projeto de Lei nº 2.338/2023, conhecido como marco legal da inteligência artificial, chegou à Câmara dos Deputados em março de 2025 em condições de avanço rápido. Aprovado pelo Senado Federal em dezembro de 2024 em votação simbólica, o projeto tem como objeto declarado o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial no Brasil. É a culminância de um processo legislativo que começou a se desenhar em 2019 e que, ao longo dos anos, acumulou versões, audiências públicas, relatórios e adiamentos.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

A autoria do projeto é do presidente do Senado, Rodrigo Pacheco, e a proposta consolidou em um texto único iniciativas legislativas anteriores que tramitavam em paralelo, como o PL nº 21/2020 e o PL nº 5.051/2019. O modelo adotado combina princípios gerais, uma estrutura de classificação de sistemas por nível de risco e obrigações específicas para desenvolvedores, operadores e usuários de IA. Essa arquitetura foi influenciada, entre outras referências, pelo AI Act europeu, mas com adaptações ao contexto constitucional e institucional brasileiro.

A Comissão Especial da Câmara, criada para analisar o texto, ouviu representantes do setor de tecnologia, da sociedade civil, de organismos internacionais e de universidades ao longo de doze audiências públicas realizadas entre maio e setembro de 2025. A previsão inicial era votar o relatório do relator ainda em 2025, mas divergências políticas e técnicas levaram a uma postergação para 2026, em decisão articulada entre as presidências da Câmara e do Senado.

Os principais eixos do texto aprovado no Senado

A espinha dorsal do projeto é a classificação dos sistemas de IA conforme o risco que representam para direitos fundamentais. Sistemas de risco inaceitável, como aqueles que manipulam comportamentos de forma subliminar ou que implementam pontuação social de cidadãos, são expressamente proibidos. Sistemas de alto risco, que operam em setores como saúde, educação, justiça criminal, emprego e infraestrutura crítica, ficam sujeitos a obrigações reforçadas de documentação técnica, supervisão humana, avaliação de impacto e auditabilidade.

Um aspecto que distingue o modelo brasileiro da sua principal referência internacional é a ênfase nos direitos das pessoas afetadas por sistemas de IA. O projeto dedica um capítulo específico ao tema, prevendo o direito à informação prévia sobre a interação com sistemas automatizados, o direito à determinação humana em decisões relevantes, o direito à não discriminação e correção de vieses algorítmicos e o direito à privacidade e à proteção de dados pessoais. Essa abordagem reflete tanto a tradição constitucional brasileira quanto a experiência acumulada com a Lei Geral de Proteção de Dados.

Os pontos de controvérsia que podem travar a aprovação

Embora o projeto tenha avançado, há pelo menos três grandes áreas de tensão que permanecem sem solução definitiva e que podem afetar o ritmo da tramitação ou o conteúdo final do texto. A primeira é de natureza constitucional. O Poder Executivo identificou que o projeto aprovado pelo Senado apresenta vício de iniciativa ao atribuir competências normativas à Autoridade Nacional de Proteção de Dados, matéria que, pela Constituição, seria de iniciativa privativa do Executivo.

Para tentar sanar o problema, o governo enviou em dezembro de 2025 um projeto de lei complementar que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial, o SIA, e formaliza o papel da ANPD como órgão coordenador do sistema. Esse projeto deverá ser apensado ao PL 2338/2023, adicionando mais uma camada de complexidade à tramitação e potencialmente abrindo nova rodada de debates sobre a distribuição de competências regulatórias.

A segunda área de controvérsia envolve a questão dos direitos autorais no treinamento de sistemas de IA generativa. O texto aprovado pelo Senado previa que empresas de tecnologia informassem quais obras protegidas foram utilizadas no treinamento de modelos e assegurava aos autores o direito de vetar esse uso. O debate na Câmara reacendeu as disputas sobre o alcance dessas disposições, com o setor cultural defendendo maior proteção e plataformas tecnológicas resistindo a obrigações que consideram tecnicamente difíceis de cumplir, pelo menos nos termos em que foram redigidas.

O conflito sobre a governança e o papel do Judiciário

Uma terceira linha de disputa envolve a coordenação entre as instâncias regulatórias e o Poder Judiciário. O substitutivo do Senado criou a Instância de Coordenação Intersetorial, que se tornou, em janeiro de 2026, o novo centro de disputa institucional. O Conselho Nacional de Justiça reivindicou assento permanente no colegiado, sob o argumento de que as deliberações da Instância poderiam gerar incompatibilidades com a Resolução nº 332/2020, que já disciplina o uso de inteligência artificial no Judiciário.

A tensão reflete um problema mais amplo de coordenação interinstitucional. Enquanto a União Europeia centralizou a supervisão no AI Office, que em 2025 enfrentou gargalos operacionais para auditar modelos de propósito geral, e os Estados Unidos mantêm fiscalização dispersa entre a Federal Trade Commission e tribunais estaduais, o Brasil aposta em um modelo de governança policêntrica que distribui responsabilidades entre o SIA, a ANPD e os órgãos setoriais. A eficácia desse modelo dependerá de como os conflitos de competência serão administrados na prática.

A responsabilidade civil e o impacto sobre o mercado

No campo da responsabilidade civil, o projeto inaugura um modelo que vai além da dicotomia tradicional entre responsabilidade objetiva e subjetiva. Para sistemas classificados como de alto risco, o texto consolida a inversão do ônus da prova e institui uma presunção legal de nexo causal. Com isso, transfere ao desenvolvedor ou operador do sistema o dever de demonstrar que o dano não decorreu do funcionamento do algoritmo.

Esse arranjo representa uma mudança significativa em relação ao Código Civil. A lógica se aproxima daquela prevista no Código de Defesa do Consumidor, e a expectativa é que crie um ambiente mais favorável à litigância contra empresas de tecnologia. A combinação entre presunção de nexo causal, inversão do ônus da prova e legitimidade ativa ampliada do Ministério Público e das Defensorias Públicas pode estimular a propositura de ações civis públicas de elevada complexidade técnica, com disputas periciais prolongadas e efeitos econômicos relevantes.

A exigência de auditabilidade algorítmica reforça esse cenário. O substitutivo autoriza o órgão regulador a exigir acesso a informações técnicas relevantes de sistemas considerados opacos, as chamadas caixas-pretas. Nesse ponto, emerge um conflito direto com a Lei de Propriedade Industrial, especialmente quanto à proteção do segredo de negócio e do know-how. O debate jurídico que se avizinha envolve os limites do poder regulatório para acessar modelos, parâmetros e códigos-fonte sem violar direitos de propriedade industrial. O tema tem alto potencial de judicialização.

O custo regulatório e a visão do setor produtivo

Do ponto de vista econômico, a redistribuição de riscos promoted pelo marco legal não é neutra. Relatórios de consultorias jurídicas indicam que o cumprimento das obrigações de documentação, avaliação de impacto e auditabilidade pode representar um custo fixo significativo para empresas que desenvolvem ou operam sistemas de IA, especialmente para startups e pequenas empresas que não dispõem de equipes jurídicas e técnicas dedicadas.

Representantes do setor de tecnologia têm criticado o texto por sua rigidez regulatória, especialmente o modelo de compliance ex ante, que impõe obrigações antes mesmo do uso efetivo do sistema. Defensores do projeto, por outro lado, argumentam que a ausência de regras claras é mais custosa a longo prazo, pois mantém um ambiente de insegurança jurídica que inibe investimentos e criação de novos produtos. O equilíbrio entre essas duas perspectivas será um dos fatores decisivos para a conformação final do texto.

Contrapontos: o que o projeto não resolve e as alternativas em debate

Mesmo que o projeto seja aprovado na forma atual ou com modificações pontuais, há questões que ficam fora do alcance do marco legal e que continuarão gerando debates. Uma delas é a definição de regras específicas para o uso de IA em processos seletivos de pessoal, tema que foi objeto de intensas discussões durante as audiências públicas da Comissão Especial, mas que acabou sendo tratado de forma genérica no substitutivo do Senado.

Outra lacuna relevante diz respeito à automação de decisões no âmbito da administração pública. O projeto estabelece princípios gerais, mas não cria um regime específico para a utilização de sistemas automatizados por órgãos governamentais, o que pode gerar legislações locais fragmentadas e critérios de avaliação díspares entre os diferentes níveis de governo.

Do lado dos defensores de direitos civis, a crítica recorrente é que o texto aprovado no Senado já havia sido esvaziado em pontos considerados essenciais. A ausência de salvaguardas trabalhistas relativas à automação e a fragilidade das regras sobre direitos autorais são dois dos pontos mais citados. Defensores de uma regulação mais severa também argumentam que a classificação de risco adotada pelo projeto não captura adequadamente os danos potenciais de sistemas de IA de propósito geral, como os grandes modelos de linguagem, cujo comportamento emergente não é totalmente previsível a partir de sua arquitetura.

Perspectivas e incertezas para os próximos meses

O calendário legislative permanece como a maior fonte de incerteza. Impasses políticos, a proximidade do calendário eleitoral de 2026 e a complexidade técnica do tema continuam a postergar a votação definitiva. Mesmo que a Câmara consiga aprovar um texto ainda no primeiro semestre de 2026, o projeto voltará ao Senado para análise de eventuais emendas, o que significa que a sanção presidencial e a publicação de uma lei efetiva podem ficar para depois das eleições.

Enquanto o marco legal específico não é aprovado, a Lei Geral de Proteção de Dados segue funcionando como o principal instrumento normativo aplicável ao uso de sistemas de IA que envolvam tratamento de dados pessoais, o que na prática abrange a maioria das aplicações comerciais. A ANPD, por sua vez, demonstrou disposição para atuar nesse espaço regulatório, tendo publicado, em dezembro de 2025, um Mapa de Temas Prioritários que sinaliza a intenção de editar orientações específicas sobre o uso de IA nos próximos anos.

O cenário mais provável, na ausência de imprevistos, é que a aprovação definitiva do marco legal da inteligência artificial no Brasil se arraste pelo segundo semestre de 2026 ou além. O adiamento traz custos: a insegurança jurídica mantém empresas em modo de espera, pode gerar fragmentação regulatória à medida que setores começam a editar normas próprias, e reduz a capacidade de o Brasil participar ativamente de negociações internacionais sobre padrões de IA enquanto seu próprio marco permanece incerto. Ao mesmo tempo, um adiamento também pode permitir que o texto amadureça e que pontos de tensão sejam mais bem trabalhados antes de virar lei.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje