Welcome!

Unlock your personalized experience.
Sign Up

Inteligência Artificial e Direito Brasileiro em 2026: O Panorama Regulatório e Seus Impactos na Prática Jurídica

Em 2026, o Brasil avança lentamente em direção a um marco legal para a Inteligência Artificial. Enquanto o PL 2338/2023 aguarda votação na Câmara dos Deputados, tribunais e conselhos profissionais editam regras próprias. Entenda o cenário regulatório completo.

April 27, 2026 - 18:33
0 1
Inteligência Artificial e Direito Brasileiro em 2026: O Panorama Regulatório e Seus Impactos na Prática Jurídica

TITLE: Inteligência Artificial e Direito Brasileiro em 2026: O Panorama Regulatório e Seus Impactos na Prática Jurídica SUMMARY: Em 2026, o Brasil avança lentamente em direção a um marco legal para a Inteligência Artificial. Enquanto o PL 2338/2023 aguarda votação na Câmara dos Deputados, tribunais e conselhos profissionais editam regras próprias. Entenda o cenário regulatório completo. IMAGE_URL: https://images.unsplash.com/photo-1677442135703-1787eea5ce01?w=1200&q=80 IMAGE_SOURCE: Unsplash / Bloomberg CATEGORY_ID: 14

Introdução: Uma Nova Era, Sem um Marco Firme

A inteligência artificial transformou, em poucos anos, a rotina de escritórios de advocacia, tribunais, órgãos reguladores e repartições públicas em todo o Brasil. Ferramentas de IA generativa auxiliam na elaboração de peças processuais, sistemas de análise preditiva orientam decisões administrativas e plataformas de compliance automatizado monitoram o cumprimento de normas legais. Diante dessa realidade, a comunidade jurídica brasileira se depara com uma pergunta inevitável: o ordenamento jurídico nacional está preparado para regular, responsabilizar e governar o uso dessas tecnologias?

Em 2026, a resposta é multifacetada. O país ainda não dispõe de uma lei geral que estableça regras abrangentes para o desenvolvimento e a operação de sistemas de IA — o aguardado Marco Legal da Inteligência Artificial permanece em tramitação no Congresso Nacional. Contudo, a regulamentação da tecnologia não parou de avançar. Ela se desenvolveu por múltiplas vias simultâneas: conselhos profissionais editaram normas próprias, agências reguladoras iniciaram consultas públicas, e o próprio Poder Judiciário passou a editar diretrizes sobre o uso de IA nos tribunais.

Este artigo examina, de formaexaustiva, o cenário regulatório da inteligência artificial no direito brasileiro em 2026 — desde o estado atual do PL 2338/2023 e dos projetos complementares em tramitação no Congresso Nacional até as resoluções editadas por conselhos e tribunais, passando pelos desafios de responsabilidade civil, pelas implicações na prática forense e pelas perspectivas de adequação para operadores do direito.


1. O PL 2338/2023 e a Esperada Aprovação do Marco Legal da IA

1.1 Histórico Legislatico e Cronologia

O processo de construção de um marco regulatório para a inteligência artificial no Brasil é longo e tortuoso. O ponto de partida formal pode ser identificado em fevereiro de 2020, quando o Projeto de Lei 21/2020 foi apresentado na Câmara dos Deputados, iniciando um percurso que atravessou diferentes legislatures e comissões temáticas.

A tramitação avançou lentamente até que, em maio de 2023, o Senador Rodrigo Pacheco apresentar o PL 2338/2023, que se tornaria o veículo principal do futuro marco legal. Em dezembro de 2023, foi instalada a Comissão Temporária de Inteligência Artificial (CTIA) no Senado Federal, responsável por analisar o texto e colher contribuições da sociedade. Após extensas audiências públicas que reuniram centenas de especialistas, empresas, acadêmicos e representantes da sociedade civil ao longo de 2023 e 2024, o relatório final foi apresentado pelo Senador Eduardo Gomes (MDB-TO).

Em 10 de dezembro de 2024, o PL 2338/2023 foi aprovado por unanimidade no Plenário do Senado Federal. Trata-se de um marco significativo: pela primeira vez, o Congresso Nacional convergia em torno de um texto consolidado que estabelece princípios, regras e instituições dedicadas à regulação de IA no país. Aprovado no Senado, o projeto seguiu para a Câmara dos Deputados, onde permanecia em tramitação em abril de 2026, aguardando votação plenária.

1.2 A Arquitetura Regulatória Proposta: Classificação por Risco

O PL 2338/2023 adota, como pilar central de sua arquitetura regulatória, o modelo de classificação por risco — inspirado no AI Act europeu (Regulamento (UE) 2024/1689). A premissa é simples e.logic: a intensidade da regulação deve ser proporcional ao potencial de dano que um sistema de IA pode produzir. Dessa forma, o projeto estabelece três grandes categorias de risco.

Risco Excessivo (Proibidos): Nesta categoria encontram-se sistemas cuja operação é banida no território nacional. Incluem-se armas autônomas letais que tomam decisões de uso de força sem supervisão humana, sistemas de "social scoring" governamental que classificam cidadãos com base em comportamentos sociais, técnicas subliminares que explorem vulnerabilidades psicológicas, sistemas de reconhecimento de emoções em ambientes de trabalho e educacionais, e o scraping indiscriminada de imagens faciais em espaços públicos. A violação dessas proibições está sujeita a multas de até R$ 50 milhões por infração, além da suspensão imediata da atividade.

Alto Risco (Fortemente Regulados): Abrangem sistemas permitidos, porém sujeitos a obrigações severas de governança, documentação e supervisão. Estão nesta categoria ferramentas de triagem curricular e recrutamento automatizado, sistemas de análise de crédito e risco financeiro, soluções de IA em saúde para diagnóstico, triagem e priorização de pacientes, plataformas de avaliação automatizada no contexto educacional, sistemas de análise de reincidência criminal e vigilância biométrica no âmbito da justiça criminal, além de veículos autônomos e infraestrutura crítica. Para operar esses sistemas, os desenvolvedores e operadores devem conduzir Avaliação de Impacto Algorítmico (AIA) prévia, implementar governança robusta com logs, auditorias e testes periódicos, assegurar supervisão humana efetiva sobre decisões automatizadas, manter documentação técnica completa disponível para a autoridade reguladora, e registrar o sistema em banco público administrado pela ANPD.

Risco Baixo ou Moderado (Obrigações Mínimas): Compreendem a grande maioria das aplicações comerciais de IA — chatbots genéricos, sistemas de recomendação de produtos, assistentes virtuais e ferramentas de produtividade. As obrigações são menos onerosas, resumindo-se à transparência básica (informar o usuário de que está interagindo com uma IA), à identificação de conteúdo gerado por IA (incluindo deepfakes e imagens sintéticas), e à disponibilização de regras de uso acessíveis.

1.3 Direitos dos Afetados por Sistemas de IA

Um dos aspectos mais relevantes do PL 2338/2023 é a criação de um catálogo sistematizado de direitos para pessoas afetadas por decisões tomadas por sistemas de IA. Trata-se de uma inovação significativa, pois esses direitos hoje existem de forma fragmentada no ordenamento, dispersos entre a Constituição Federal, o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados (LGPD).

O projeto assegura: o direito à informação prévia, pelo qual qualquer pessoa deve ser informada, antes de uma interação, de que está diante de um sistema de IA, qual a finalidade, quais dados são coletados e quem é o operador e desenvolvedor; o direito à explicação, que garante a qualquer afetado o direito de exigir explicação técnica compreensível sobre os critérios utilizados, os dados relevantes e a lógica geral do sistema que fundamentou uma decisão automatizada; o direito à revisão humana, pelo qual decisões totalmente automatizadas que impactem direitos podem ser contestadas perante um ser humano qualificado; o direito à não-discriminação algorítmica, que veda qualquer forma de discriminação direta, indireta ou por viés algorítmico com base em raça, gênero, orientação sexual, religião, convicção política, condição socioeconômica ou deficiência; o direito à privacidade e proteção de dados, reforçando que sistemas de IA devem respeitar os princípios de finalidade, necessidade, transparência e segurança estabelecidos pela LGPD; e o direito à contestação administrativa, que permite a formulação de reclamação diretamente à autoridade competente (a ANPD, com apoio dos reguladores setoriais) sem necessidade de ação judicial prévia.

1.4 Governança: O SIA e o Papel da ANPD

O PL 2338/2023 propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), uma estrutura de governança distribuída que envolve múltiplos atores. A ANPD assume o papel de coordenação central, funcionando como autoridade nacional de proteção de dados com competências estendidas para a governança de IA. Reguladores setoriais — como o Banco Central no setor financeiro, a ANVISA em saúde e a ANATEL em telecomunicações — exercem fiscalização em suas respectivas áreas de competência. A estrutura conta ainda com um órgão colegiado, o CNRIA (Conselho Nacional de Regulação de IA), e um comitê científico multissetorial para consulta técnica.

As sanções previstas seguem uma escala proporcional à gravidade da infração:advertência com prazo de adequação para infrações leves, multa simples de até 2% do faturamento com limite de R$ 50 milhões para infrações médias, multa cumululada com suspensão parcial da atividade para infrações graves, e proibição de operar com multa máxima para infrações gravíssimas. A reincidência dobra o valor da multa aplicada.

1.5 Por Que o Projeto Ainda Não Foi Aprovado

Apesar da aprovação unânime no Senado em dezembro de 2024, o PL 2338/2023 encontrou resistências na Câmara dos Deputados ao longo de 2025 e início de 2026. A Comissão Especial designada para analisar o projeto apresentou um plano de trabalho que previa audiências públicas, seminários regionais, elaboração do parecer até novembro de 2025 e deliberação em dezembro. Contudo, esse cronograma não foi cumprido, e em abril de 2026 o projeto ainda permanecia em tramitação sem sinalização clara sobre quando será apreciado pelo Plenário.

Especialistas apontam que, além das disputas por pauta prioritária no Congresso, a complexidade técnica do tema e a resistência de setores econômicos que temen constraints regulatórias excessivas contribuem para a lentidão. Enquanto isso, a Copa do Mundo de 2026 e as eleições presidenciais de 2026 prometem ocupar a agenda legislativa, gerando incerteza sobre o destino do projeto ainda neste ano.


2. A Regulamentação Paralela: Projetos Esparsos no Congreso

A ausência de um marco legal geral não halted a atividade legislativa. Pelo contrário, o que se observa em 2026 é uma proliferação de projetos de lei setoriais que tentam填补 as lacunas deixadas pela tramitação arrastada do PL 2338/2023.

O PL 704/2026, apresentado na Câmara em fevereiro de 2026, propõe princípios estruturantes para a política nacional de inteligência artificial, colocando o combate à corrupção e a redução de desigualdades no centro do desenho normativo. Trata-se de uma abordagem principiológica, que pode conviverr com o marco legal geral — mas também pode gerar conflitos de interpretação.

O PL 762/2026, também de fevereiro de 2026, vai além ao criar regras específicas para sistemas de IA de alto impacto, exigindo avaliação de impacto obrigatória, certificação prévia pela ANPD e registro público antes da operação no Brasil. A proposta ainda estabelece alterações no Marco Civil da Internet e no Código de Defesa do Consumidor, prevendo responsabilidade objetiva do fornecedor em relações de consumo mediadas por IA e canais obrigatórios de revisão humana.

No Senado, o PL 750/2026 já foi aprovado e seguiu para a Câmara. Trata-se de proposição voltada à proteção de vítimas de violência doméstica, instituindo o Programa Nacional de Monitoramento de Agressores com uso de IA. A proposta prevê tornozeleiras eletrônicas conectadas a plataformas inteligentes capazes de emitir alertas em tempo real às autoridades em caso de violação de medidas protetivas — uma aplicação específica em que a IA é empleada como ferramenta de proteção, não de controle.

A deputação Ana Paula Lima (PT-SC) apresentou o PL 1225/2026, com objetivo de regulamentar o uso de reconhecimento facial e biometria em escolas da educação básica. O projeto nasceu de uma investigação jornalística que revelou a utilização, em escolas brasileiras desde 2023, de um software biométrico europeu já vetado em países da União Europeia — atingindo quase um milhão de crianças no estado do Paraná. A proposta exige consentimento específico dos responsáveis, transparência algorítmica e proíbe a vinculação automática de registros de frequência gerados por algoritmos a sistemas de benefícios socioassistenciais.

Essa fragmentação regulatória traz desafios significativos. Com múltiplos projetos tramitando simultaneamente, há risco real de sobreposição de obrigações, contradições normativas e insegurança jurídica — agravados pelo fato de que nenhum dos projetos setoriais possui oScoped de um marco geral.


3. Conselhos Profissionais e a Autorregulação Setorial

Enquanto o Congreso legisla de forma fragmentada, os conselhos profissionais decidiram não esperar. A OAB editou, em novembro de 2024, a Recomendação nº 001/2024, que estabelece diretrizes para o uso de IA generativa na advocacia. O documento recomenda que advogados informem aos clientes sobre o uso de ferramentas de IA em seus serviços, que mantenhham responsabilidade humana sobre todas as peças processuais, que auditem rigorosamente o output de sistemas de IA antes de juntá-lo aos autos, e que preservem o sigilo profissional ao utilizar plataformas que processam dados em nuvem. A expectativa é que, em 2026, essa recomendação sejaconvertida em norma regulatória efetivamente vinculante.

O CNJ publikou, em março de 2025, a Resolução nº 615, que estabelece regras para o uso de IA no Poder Judiciário. A norma determina que tribunais que utilizarem sistemas de IA para apoio à gestão jurisdicional devem garantir transparência sobre o funcionamento dos algoritmos, возможность de auditoria por órgãos de controle, e supervisão humana sobre todas as decisões que afetem partes processuais. Em 2026, a tendência é de aprofundamento dessas diretrizes e possivelmente de criação de mecanismos de compliance algorítmico para os tribunais.

No ámbito médico, o Conselho Federal de Medicina (CFM) публиковал, em fevereiro de 2026, a Resolução nº 2.454/2026, que normatiza o uso de IA na prática médica. A norma classifica sistemas de IA por nível de risco — baixo, médio, alto ou inaceitável —, probe a comunicação de diagnósticos por sistemas automatizados sem mediação humana, exige registro em prontuário sempre que houver apoio de IA na decisão clínica, e estabelece que hospitais com sistemas de desenvolvimento próprio devem criar Comissões de IA e Telemedicina. O médico permanece como responsável final por toda decisão clínica, e a IA entra como ferramenta de apoio, nunca como substituta do julgamento profissional. O prazo para entrada em vigor das obrigações é agosto de 2026 — extremamente curto para adequação.

No ámbito das agências reguladoras, a Anatel submeteu a consulta pública propostas de diretrizes para o uso de IA em telecomunicações, sinalizando que a deliberação pelo Conselho Diretor deve ocorrer em breve. A agência adota uma abordagem descrita como "baseada em princípios e menos prescritiva", buscando flexibilidade regulatória. O Banco Central, por sua vez, incluiu a inteligência artificial como tema de sua agenda regulatória para o biênio 2025-2026, já conduziu pesquisa de mercado sobre o uso de IA no sistema financeiro e prevê a realização de avaliação de impacto regulatório ao longo de 2026.

Essa proliferação de normas setoriais revela uma tendência clara: a regulação de IA no Brasil está se formando por múltiplas vias simultâneas e sem coordenação aparente, exigindo dos operadores do direito uma atenção permanente a desenvolvimentos regulatórios em múltiplas frentes.


4. Implicações para a Prática Jurídica

4.1 Responsabilidade Civil por Danos Causados por IA

Um dos temas mais sensíveis para advogados em 2026 é a responsabilidade civil por danos causados por sistemas de inteligência artificial. O ordenamento brasileiro oferece mecanismos tradicionais — artigos 186 e 927 do Código Civil — que, em princípio, podem ser empregados para imputar responsabilidade a desenvolvedores, operadores ou usuários de sistemas de IA.

Contudo, a complexidade técnica dos sistemas de IA generativa e de aprendizado de máquina cria dificuldades probatórias significativas. A natureza de "caixa preta" (black box) de muitos modelos de IA dificulta a identificação da conduta, do nexo causal e do dano — especialmente quando o sistema produz resultados imprecisos ou tendenciosos que geram prejuízos a terceiros. A demonstração de culpa por parte do desenvolvedor ou do operador torna-se particularmente árdua quando os critérios utilizados pelo algoritmo não são transparantes ou explicáveis.

Diante dessa dificuldade, parte da doutrina e da jurisprudência tem explorado a adoção de teorias de responsabilidade objetiva por categoria. Nessa perspectiva, o operador de um sistema de IA responderia objetivamente (sem necessidade de demonstração de culpa) pelos danos causados pelo sistema, independentemente de ter agido com negligência. Essa abordagem tem paralelo na responsabilidade de operadores de atividades危险的 delineated no artigo 927, parágrafo único, do Código Civil.

Em 2025, o STJ iniciou o exame de casos envolvendo sistemas automatizados que causaram danos a consumidores, reconhecendo a aplicabilidade dos princípios da responsabilidade civil ao contexto algorítmico. Em 2026, a tendência é de aprofundamento dessa jurisprudência, com possível definição de parâmetros para a apportionamento de responsabilidade entre desenvolvedor, operador e usuário.

4.2 Advogacia e o Uso de IA Generativa

A Ordem dos Advogados do Brasil manifestou preocupação recorrente com o uso de IA em atividades jurisdicionais, especialmente no que toca às prerrogativas da advocacia. Em abril de 2026, o uso de IA sem transparência em decisões judiciais foi objeto de debate público após manifestação da OAB sobre a necessidade de transparência algorítmica como garantia das prerrogativas profissionais.

Na prática forense, escritórios de advocacia têm adotado ferramentas de IA generativa para atividades como redação de peças processuais, pesquisa jurisprudencial, triagem de documentos e análise contratual. Essa adoção traz ganhos de produtividade significativos, mas também expõe profissionais a riscos de precisão: sistemas de IA podem produzir informações jurisprudenciais incorretas ("alucinações") ou argumentações inadequadas que, se apresentadas nos autos, podem prejudicar o cliente e configurar infração disciplinar.

A Recomendação nº 001/2024 da OAB funciona, por enquanto, como o principal balizamento deontológico para o uso de IA na advocacia, mas a comunidade jurídica aguarda ansiosamente uma norma vinculante que estabeleça diretrizes claras sobre a matéria.

4.3 O Judiciary e a IA: Desafios e Oportunidades

O Poder Judiciário brasileiro tem utilizado IA em diversas frentes: análise preditiva de casos, triagem processual automatizada, identificação de precedentes relevantes e apoio à gestão jurisdicional. A Resolução nº 615 do CNJ, editada em março de 2025, tentou estabelecer parâmetros mínimos de governança para essas aplicações.

Entre os desafios persistentes, destaca-se a questão da explicabilidade: sistemas de apoio à decisão judicial que não oferecem justificativa clara para suas recomendações podem violar o princípio do devido processo legal e o direito à motivação das decisões judiciais (artigo 93, IX, da Constituição Federal). Além disso, há o risco de que vieses algorítmicos incorporem e ampliem desigualdades existentes no sistema judiciário, especialmente em decisões criminais que envolvam análise de reincidência.

Em 2026, o STF inicioupúblicamente debates sobre a necessidade de um código de ética para o uso de IA no Judiciário, sinalizando que a corregedoria e a presidente do tribunal reconhecem a urgência do tema — ainda que a implementação efetiva de diretrizes concretas permaneça como desafio.


5. Perspectivas e Caminhos para 2026 e Além

O cenário regulatório da IA no direito brasileiro em 2026 é de fragmentação produtiva. Embora o PL 2338/2023 não tenha sido aprovado até o momento, múltiplas vias regulatórias avançam em paralelo, criando um quadro normativo que, apesar de incompleto, já impõe obrigações efetivas a desenvolvedores e operadores de sistemas de IA.

Para operadores do direito, três caminhos regulatórios merecem atenção prioritária:

O Marco Legal Geral (PL 2338/2023): Sua eventual aprovação — seja em 2026 ou nos anos subsequentes — estabelecerá um paradigma de governança de IA em todo o território nacional, com obrigações unificadas, direitos dos afetados sistematizados e uma estrutura institucional dedicada. A proximidade da eventual aprovação torna urgente o mapeamento de sistemas de IA em uso e a classificação de riscos correspondente.

A Regulação Setorial: Conselhos profissionais (CFM, OAB), agências reguladoras (Anatel, Banco Central) e o CNJ estão criando normas específicas que afetam diretamente segmentos profissionais e áreas de atuação. A conformidade com essas normas setoriais é imediata e não pode ser ignorada.

A Intersecção com a LGPD: Independentemente do Marco Legal, a LGPD já impõe obrigações que se aplicam ao tratamento de dados pessoais por sistemas de IA. A ANPD, como órgão fiscalizador tanto da LGPD quanto do futuro marco de IA, tende a consolidar uma interpretação convergente entre os dois marcos normativos. Empresas que já investiram em adequação à LGPD estão em posição privilegiada para aderir ao futuro Marco Legal.

Por fim, o debate sobre a responsabilidade civil por danos causados por IA permanece em aberto, com inúmeroscasos sub judice em diferentes tribunais do país. A definição de parâmetros jurisprudenciais claros sobre a matéria deve emergir nos próximos anos, moldando de forma determinante a prática forense e a responsabilidade de todos os agentes do ecossistema de IA no Brasil.


Este artigo reflete o estado do cenário regulatório da inteligência artificial no direito brasileiro até abril de 2026, com base em fontes públicas, projetos de lei em tramitação e manifestos de órgãos e entidades relevantes.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User