O Marco Legal da Inteligência Artificial no Brasil: o que muda na responsabilidade civil por sistemas de IA
Projeto de Lei 2338/2023 cria um regime inédito de responsabilização civil para sistemas de inteligência artificial no Brasil, com classificações por nível de risco e obrigações para desenvolvedores e operadores. Analisamos o que está em jogo.
O que é o PL 2338/2023 e por que importa agora
O Projeto de Lei 2338/2023, conhecido como Marco Legal da Inteligência Artificial, é a tentativa mais estruturada que o Brasil já fez para regular sistemas de inteligência artificial. Apresentado pelo presidente do Senado Federal, Rodrigo Pacheco, em maio de 2023, o projeto percorreu uma comissão temporária específica no Senado entre o segundo semestre de 2023 e o início de 2024, reunindo contribuições de mais de 300 especialistas, empresas, academia e sociedade civil por meio de audiências públicas. O texto consolidado foi aprovado por unanimidade no Plenário do Senado Federal em 10 de dezembro de 2024. Desde então, tramita na Câmara dos Deputados, onde aguarda parecer do relator na Comissão Especial, com expectativa de votação final durante o ano legislativo de 2026.
Para o Direito Civil brasileiro, a relevância do projeto é direta e estrutural: ele cria um regime próprio de responsabilidade civil para sistemas de IA, com regras que se sobrepõem, complementam e em alguns pontos alteram o regime geral de responsabilidade civil estabelecido pelo Código Civil de 2002. Até agora, quem sofria um dano causado por um sistema de inteligência artificial precisava enquadrar a situação nas categorias tradicionais de responsabilidade civil — responsabilidade contratual, extracontratual, objetiva por risco ou subjetiva por culpa. O PL 2338/2023 muda essa arquitetura ao introduzir um regime específico para os agentes da cadeia de inteligência artificial.
O cenário não é apenas legislativo. A crescente adoção de sistemas de IA em setores como finanças, saúde, seguros, contratação e atendimento ao consumidor fez aumentar o volume de disputas judiciais envolvendo danos atribuídos a decisões automatizadas. Sem um marco legal claro, tribunais brasileiros têm aplicado o Código Civil e a Lei Geral de Proteção de Dados para resolver casos que exigem respostas mais específicas, nem sempre com resultados uniformes entre si.
Classificação por nível de risco: a espinha dorsal do projeto
O modelo adotado pelo PL 2338/2023 segue a lógica do AI Act europeu, classificando sistemas de inteligência artificial conforme o potencial de dano que representam a direitos fundamentais. Essa classificação por nível de risco é o que determina quais obrigações jurídicas se aplicam a cada tipo de sistema e, crucialmente, qual o regime de responsabilidade civil aplicável.
Sistemas de risco inaceitável são expressamente proibidos no Brasil. O texto do projeto veda o desenvolvimento e a comercialização de sistemas que usem técnicas subliminares capazes de manipular o comportamento de pessoas, de pontuação social governamental, de armas autônomas letais sem supervisão humana efetiva e de reconhecimento de emoções em ambientes de trabalho e educacional. A infração a essa vedação acarreta sanções gravíssimas, incluindo multas de até 50 milhões de reais por infração e proibição definitiva de operar no território nacional.
Sistemas classificados como de alto risco são permitidos, mas sujeitos a obrigações rigorosas. Estão nessa categoria sistemas de triagem curricular e recrutamento, análise de crédito e risco financeiro, diagnóstico e triagem em saúde, avaliação e classificação de alunos na educação, análise de reincidência na justiça criminal, vigilância biométrica, veículos autônomos e infraestrutura crítica. Para esses sistemas, o projeto exige avaliação de impacto algorítmico prévia à entrada em operação, governança com logs e auditorias periódicas, supervisão humana efetiva sobre decisões automatizadas, transparência sobre o funcionamento e a lógica do sistema, documentação técnica completa disponível para a autoridade reguladora e registro em banco público de sistemas de alto risco.
Os sistemas de risco baixo ou moderado, que incluem a grande maioria das aplicações comerciais como chatbots, recomendadores de produtos e assistentes virtuais, ficam sujeitos a obrigações mínimas, centradas na transparência perante o usuário, na identificação de conteúdo gerado por IA e na disponibilização de regras de uso.
O regime de responsabilidade civil e seus desafios práticos
O ponto central do projeto para o Direito Civil é o regime de responsabilidade civil que se aplica aos agentes da cadeia de inteligência artificial. O PL 2338/2023 distingue entre desenvolvedor, operador e usuário de um sistema de IA, atribuindo a cada um obrigações e responsabilidades diferenciadas. Para sistemas de alto risco, o projeto adota a modalidade de responsabilidade civil objetiva, ou seja, não é necessário demonstrar culpa do agente para que ele seja obrigado a reparar um dano: basta demonstrar a existência do dano e do nexo causal com o funcionamento do sistema.
Essa escolha por um regime de responsabilidade objetiva representa uma ruptura significativa em relação ao regime geral do Código Civil, que predominantemente exige a demonstração de culpa para a responsabilização civil. A justificativa para essa opção é que, em sistemas complexos de IA, pode ser extremamente difícil ou mesmo impossível para a vítima de um dano demonstrar que o desenvolvedor ou operador agiu com negligência. A complexidade técnica dos sistemas, a opacidade de certos modelos e a rapidez das decisões automatizadas criam uma assimetria de informação que prejudica a parte lesada.
No entanto, a operacionalização desse regime de responsabilidade objetiva não é simples. Questões como a definição precisa do que constitui um defeito em um sistema de IA, a delimitação do nexo causal quando múltiplos agentes participam da cadeia de desenvolvimento e operação, e a quantificação de danos morais em decisões automatizadas permanecem como desafios práticos que a lei, tal como redigida, não resolve de forma completa. Especialistas do campo civilista apontam que essas lacunas deverão ser enfrentadas pela jurisprudência ou por regulamento infralegal após a aprovação do texto.
Também há incerteza sobre como se dará a interação entre o novo regime especial e o regime geral do Código Civil. Em casos não abrangidos expressamente pelo PL 2338/2023, como danos causados por sistemas de IA de risco baixo ou moderado, permanece a dúvida sobre qual regime se aplica. A técnica legislativa adotada pelo projeto não deixa essa questão inteiramente clara, e a doutrina civilista já identifica potencial conflito normativo a ser resolvido pelos tribunais.
Direitos dos afetados: o que o projeto garante às vítimas
Além do regime de responsabilização dos agentes, o PL 2338/2023 cria um catálogo de direitos para qualquer pessoa afetada por decisão de inteligência artificial. Esses direitos não existem hoje de forma unificada no ordenamento brasileiro e representam, em grande medida, uma inovação relevante do projeto.
O direito à informação prévia assegura que qualquer pessoa saiba, antes de interagir com um sistema de IA, que está diante de uma máquina, qual a finalidade do sistema, quais dados são coletados e quem é o responsável. O direito à explicação permite que a pessoa afetada por uma decisão automatizada exija uma explicação técnica e compreensível sobre os critérios utilizados, os dados relevantes e a lógica geral do sistema. O direito à revisão humana garante que decisões totalmente automatizadas que impactem direitos possam ser contestadas perante um ser humano qualificado, sem a necessidade imediata de uma ação judicial.
O direito à não-discriminação algorítmica proíbe que sistemas de IA pratiquem discriminação direta, indireta ou por viés algorítmico com base em raça, gênero, orientação sexual, religião, convicção política, condição socioeconômica ou deficiência. E o direito à contestação administrativa permite que qualquer pessoa apresente reclamação diretamente à autoridade competente, vermutivelmente a Autoridade Nacional de Proteção de Dados em coordenação com reguladores setoriais.
Esses direitos, na prática, transferem para empresas e desenvolvedores de IA uma carga probatória nova: caberá ao agente da cadeia de IA demonstrar que o sistema não causou o dano alegado, e não mais à vítima demonstrar a culpa do agente. Essa inversão do ônus da prova, se confirmada na versão final da lei, terá impacto profundo na litigiosidade civil relacionada à inteligência artificial nos próximos anos.
Contrapontos, críticas e limites da proposta legislativa
O PL 2338/2023 não está livre de críticas substantivas de fontes qualificadas. Do lado empresarial, a principal objeção é que o modelo de compliance ex ante, que impõe obrigações de avaliação e documentação antes mesmo de o sistema entrar em operação, cria barreiras potencialmente desproporcionais para startups e pequenas empresas que desenvolvem soluções com inteligência artificial. O custo de adequação pode, segundo críticos, concentrar o mercado em grandes empresas com equipes jurídicas e técnicas robustas, reduzindo a competição e a inovação no setor.
Do lado da sociedade civil e de organizações de defesa de direitos fundamentais, as críticas se concentram em pontos que teriam sido esvaziados no texto aprovado pelo Senado. A ausência de regras substantivas sobre direitos autorais no treinamento de sistemas de IA generativa é um exemplo: grandes modelos de linguagem são treinados com bilhões de dados disponíveis na internet, incluindo obras protegidas por direito autoral, sem que os titulares tenham sido notificados ou possam consentir com esse uso. Outra lacuna apontada é a falta de salvaguardas trabalhistas específicas relacionadas à automação e ao possível deslocamento de trabalhadores por sistemas de IA.
Há ainda uma questão constitucional que merece atenção: alguns constitucionalistas sustentam que a matéria de responsabilidade civil é reservada à legislação civil ordinária e que um marco geral de IA, por sua natureza transversal, poderia invadir competências legislativas de forma inadequada. Essa questão ainda não foi definitivamente resolvida e pode ser levada ao Supremo Tribunal Federal após a eventual sanção do projeto.
Por fim, é importante reconhecer que o cenário de tramitação do projeto não é trivialmente previsível. Além dos impasses políticos setoriais, o calendário eleitoral de 2026 tende a reduzir o espaço legislature no segundo semestre, o que significa que uma eventual aprovação final pode ficar para após as eleições, com efeitos práticos prorrogrados para 2027 ou além.
Cenários e síntese: o que esperar da aprovação e da aplicação
O cenário mais provável é a aprovação do PL 2338/2023 na Câmara dos Deputados durante o primeiro semestre de 2026, com possíveis modificações no texto que veio do Senado. A perspectiva de sanção pelo Executivo ainda no primeiro semestre de 2026 é considerada viável por analistas legislativos, embora o calendário eleitoral daquele ano possa afetar a velocidade da tramitação.
Para empresas que já utilizam sistemas de IA, a chegada do marco legal não é um evento distante. A adequação ao regime de compliance ex ante para sistemas de alto risco exige planejamento técnico e jurídico com antecedência, desde a documentação da cadeia de desenvolvimento de cada sistema até a implementação de processos de supervisão humana e auditoria. Para escritórios de advocacia, abre-se uma frente nova de trabalho: a consultoria em compliance de inteligência artificial, de forma análoga ao que ocorreu com a LGPD a partir de 2020.
Para os tribunais civis, a entrada em vigor do marco legal deve reduzir, mas não eliminar, a incerteza jurisprudencial que hoje cerca a responsabilização por danos causados por sistemas de IA. Muitas questões práticas, como a quantificação de danos em decisões automatizadas e a prova do nexo causal em sistemas de múltiplos agentes, provavelmente permanecerão como temas de litigância judicial durante os primeiros anos de vigência da lei, até que a jurisprudência consolide entendimentos mais precisos. Trata-se, em síntese, de um avanço normativo relevante que promete, e ao mesmo tempo não consegue garantir, respostas jurídicas mais previsíveis para um dos desafios técnicos e legais mais complexos do século XXI.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)