O PL 2338/2023 e a regulacao da inteligencia artificial no Brasil: o que esta em jogo
A proposta de marco regulatorio para IA aguarda votacao na Camera dos Deputados em meio a debates sobre governanca, responsabilidade civil e os limites entre inovacao e protecao de direitos.
O projeto que tenta definir os limites da IA no Brasil
O Projeto de Lei 2338/2023, de autoria do Senado Federal, estabelece normas gerais para o desenvolvimento, implementacao e uso responsavel de sistemas de inteligencia artificial no Brasil. Depois de aprovado no Senado, a proposta aguarda analise pela Camera dos Deputados, onde foi attribuida a uma comissao especial destinada a produzir parecer sobre o tema. O PL e tratado como prioridade para 2026 pela Casa, e seu resultado tera implicacoes que vao muito alem do setor de tecnologia, afetando diretamente a economia, a administracao publica e a vida quotidiana de milhoes de brasileiros.
O texto propoe um modelo de governanca baseado em risco, em que sistemas de IA de alto risco ficam sujeitos a requisitos mais rigorosos de transparencia, controle e responsabilizacao. Entre os pontos mais debatidos estao a obrigatoriedade de explicacao de decisoes automatizadas, a protecao contra discriminacao algoritmica, a definicao de responsabilidades por danos causados por sistemas de IA e a criacao de um orgao gestor especifico para a politica nacional de IA.
Em dezembro de 2025, o governo federal enviou ao Congresso um projeto de lei proprio sobre o tema, propondo um sistema de governanca distinto do PL 2338. O Executivo sustenta que o projeto do Senado contem vicio de iniciativa, por usurpar competencia privativa do presidente da Republica na organizacao da administracao publica federal. Essa controversia adiciona uma camada de complexidade ao debate, na medida em que dois projetos com principios diferentes disputam a mesma arena legislativa.
O debate sobre governanca e competencia regulatoria
A discussao sobre quem deve regular a IA no Brasil nao e apenas institucional, mas reflete conceitualmente diferentes sobre o papel do Estado na economia digital. O PL 2338/2023, na sua formulacao original, propoe uma agencia reguladora especifica para IA, com competencias que incluem a definicao de padroes tecnicos, o monitoramento de riscos sistemicos e a aplicacao de sancoes por descumprimento.
Especialistas ouvidos pela midia especializada divergem sobre a eficacia desse modelo. Defensores argumentam que uma autoridade dedicada e capaz de acompanhar a velocidade de evolucao tecnologica com mais agilidade do que orgaos com multiplas atribuicoes. Criticos sustentam que a multiplicacao de agencias reguladoras no Brasil criou um ambiente fragmentado que, em vez de proteger consumidores e cidadaos, elevou o custo de compliance sem garantir resultados proporcionais.
O advogado e professor de direito digital Renato Pedroso, ouvido pelo portal JOTA.info, apontou que a questao central nao e apenas institucional, mas de principios: qualquer marco regulatorio precisa equilibrar seguranca juridica para investimentos com protecao efetiva de direitos fundamentais. Na sua avaliacao, o erro mais comum em projetos de lei sobre tecnologia e tratar a inovacao como uma ameaca a ser contida, em vez de reconhecer que a regulacao inadequada pode ser tao prejudicial quanto a ausencia de regras.
A objecao do Executivo e o vicio de iniciativa
O governo federal, ao enviar o PL proprio em dezembro de 2025, articulou uma objecao formal ao PL 2338: a proposta do Senado usurpa competencia privativa do presidente da Republica ao criar orgaos e atribuicoes que, nos termos da Constituicao, dependem de iniciativa do Executivo. Trata-se de um debate recorrente na politica brasileira, que ja produziu vetos presidenciais em diversas materias por essa mesma razao.
A acusacao de vicio de iniciativa nao e trivial. Quando o Congresso cria uma agencia reguladora ou define atribuicoes administrativas sem iniciativa do Executivo, o presidente pode vetar o dispositivo por extrapolacao de competencia. O fato de o governo ter escolhido enviar um projeto alternativo em vez de simplesmente vetar os dispositivos questionados indica que ha uma vontade de negociar o conteudo, nao apenas a forma.
Dialoguistas do legislativo avaliam que o desfecho mais provavel e a fusao dos dois projetos em uma unica proposta que incorpore elementos de ambos: a estrutura de governanca do PL 2338 com os mecanismos de coordenacao do projeto do Executivo.
Responsabilidade civil e os desafios para consumidores e empresas
Entre os pontos do PL 2338 que mais geram polemica esta o regime de responsabilidade civil previsto para danos causados por sistemas de inteligencia artificial. O projeto estabelece responsabilidade objetiva para fornecedores de sistemas de IA de alto risco, o que significa que o prejudicado nao precisa demonstrar culpa para obter indenizacao. A empresa responde pelo dano independentemente de ter agido com negligencia.
Empresas de tecnologia e escritorios de advocacia especializados em inovacao avaliam que essa previsao pode elevar significativamente o custo de desenvolvimento e implementacao de sistemas de IA no Brasil. O argumento e que a responsabilidade objetiva sem teto definido desincentiva investimentos em tecnologia de ponta, na medida em que o risco de condenacao e incalculavel.
Por outro lado, consumidores e organizacoes da sociedade civil sustentam que a responsabilidade objetiva e a unica forma de garantir protecao efetiva em um ambiente em que os algoritmos operam de forma opaca e os cidadaos nao tem acesso aos dados ou a metodologia que fundamentam decisoes que afetam suas vidas. A inversao do onus da prova, ja prevista no Codigo de Defesa do Consumidor para produtos e servicos defeituosos, tende a ser aplicada tambem a decisoes algoritmicas.
O PL 6707/2025 e a responsabilidade por danos de IA
Em marco de 2026, a Camera dos Deputados aprovou o Projeto de Lei 6707/25, que estabelece responsabilidade civil especifica para danos causados por sistemas de IA. O texto determina que fornecedores e desenvolvedores respondam pelos danos decorrentes do funcionamento de seus sistemas, independentemente de terem comprovado nao haver falha no produto. Essa decisao foi recebida com reservas pelo setor de tecnologia, que sustenta não ser possível garantir ausencia total de riscos em sistemas complexos e adaptativos.
O setor de servicos financeiros, que utiliza IA para concessao de credito, analise de risco e atendimento ao cliente, e um dos mais afetados por essa discussao. Algoritmos que definem taxas de juros, limites de credito ou recusa de servicos operam de forma que, muitas vezes, nem os proprios desenvolvedores conseguem explicar integralmente por que chegam a determinado resultado. Quando essas decisoes causam dano ao consumidor, a questao central e: quem responde?
A resposta do STJ a essa pergunta ainda esta em formacao jurisprudencial. Em abril de 2026, a Quinta Turma do STJ decidiu que um relatorio produzido por inteligencia artificial generativa nao pode servir como prova em acao penal, estabelecendo um precedente sobre os limites da tecnologia no Sistema de Justica. Embora o julgamento tenha ocurrido no ambito penal, a logica subjacente — a necessidade de racionalidade, verificabilidade e responsabilidade humana nas decisoes — tende a informar tambem o debate consumerista.
Impactos sobre a administracao publica e os servicos essenciais
O PL 2338/2023 tambem prevê regras especificas para o uso de IA pelo poder publico. Entre as obrigacoes esta a de que decisoes automatizadas que afetem direitos de cidadaos sejam fundamentadas e passiveis de recurso humano. Alem disso, o projeto proibe o uso de sistemas de IA para vigilancia massiva e criacao de perfis biometricos sem autorizacao judicial.
Especialistas em gestao publica avaliam que essas regras podem elevar significativamente o custo de implementacao de projetos de modernizacao do Estado, que frequentemente envolvem contratos com fornecedores de solucoes de IA. O Tribunal de Contas da Uniao, em varios relatorios de auditoria publicados em 2025 e 2026, alertou para a ausencia de marcos regulatorios adequados em contratos de tecnologia que envolvem processamento de dados pessoais e decisoes automatizadas.
A Controladoria-Geral da Uniao tambem identificou que orgaos publicos que utilizam chatbots e sistemas de atendimento automatizado precisam garantir que ha sempre uma instancia humana acessivel para cidadaos que necessitem resolver problemas complexos. A IA nao pode ser usada para reduzir custos de atendimento às custas da exclusao de quem nao consegue navegar em interfaces digitais.
Contrapontos, criticas e limites da analise
Uma analise mais equilibrada do PL 2338/2023 precisa reconhecer que a regulacao da IA e uma das questoes mais complexas enfrentadas pelo Legislativo brasileiro. A velocidade de evolucao tecnologica torna qualquer regra potencialmente defasada no momento em que e aprovada. Alem disso, ha uma tensao estrutural entre a promessa de inovacao, que exige flexibilidade regulatoria, e a protecao de direitos fundamentais, que exige normas precisas e aplicaveis.
Ha tambem uma limitacao pratica: o Brasil nao possui uma base industrial significativa de empresas de IA no nivel das grandes empresas tecnologicas globais. A maioria das solucoes de IA utilizadas no pais e importada ou fornecida por subsidiarias de empresas internacionais. Isso significa que as regras brasileiras acabarao por afetar, em grande medida, empresas que operam em multiplas jurisdicoes e que ja estao sujeitas a regulamentos como o GDPR europeu ou a AI Act da Uniao Europeia. A questao e se o Brasil conseguira estabelecer padroes que sejam simultaneamente protetores e compativeis com o ambiente regulatorio internacional.
Outra fragilidade da analise diz respeito ao enforcement. Mesmo que o marco regulatorio seja aprovado com regras bem desenhadas, a capacidade do Estado brasileiro de fiscalizar o cumprimento de obrigacoes tecnicas por parte de grandes empresas de tecnologia e limitada. Criar deveres que nao podem ser efetivamente monitorados pode gerar um ambiente de descrenca nas regras, o que e mais prejudicial do que nao regular.
Cenarios e perspectivas para os proximos anos
O cenario mais provavel e a aprovacao de um marco regulatorio que combine elementos do PL 2338/2023 e do projeto do Executivo, com enfase em governanca coordenada e responsabilidade baseada em risco. As datas previstas para a votacao em comissao especial indicam que o tema deve avancar no segundo semestre de 2026, com possivel aprovacao no inicio de 2027.
Entre os fatores que podem acelerar a aprovacao estao a pressao do setor empresarial por seguranca juridica para investimentos em IA e o interesse de administracoes publicas em contar com regras claras para seus projetos de transformacao digital. Entre os fatores que podem retardar estao as resistencias do setor de tecnologia a obrigacoes de transparencia e a disputa institucional entre Executivo e Legislativo sobre competencia normativa.
Para empresas que ja utilizam ou planejam utilizar sistemas de IA, a recomendacao dos especialistas e de que adotem praticas de governanca de dados e documentacao de processos decisorios desde logo, independentemente do marco regulatorio que vena a ser aprovado. As regras que estao em discussao no PL 2338 refletem tendencias internacionais e devem ser incorporadas, ao menos parcialmente, na jurisprudencia dos tribunais brasileiros mesmo antes de sua aprovacao, na medida em que principios como transparencia, nao discriminacao e responsabilidade ja encontram apoio no ordenamento juridico vigente.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0




Comentários (0)