Welcome!

Unlock your personalized experience.
Sign Up

PL 2338/2023 e o Dilema dos Direitos Autorais: Como o Marco Legal da IA Pode Redefinir a Competitividade Brasileira na Economia Digital

O Projeto de Lei 2338/2023, que estabelece o marco regulatório da inteligência artificial no Brasil, enfrenta um de seus maiores desafios na questão dos direitos autorais aplicados à IA generativa. O texto aprovado no Senado cria um sistema de opt-out e remuneração que pode elevar significativamente os custos de desenvolvimento de IAs no país, gerando debate entre proteção aos criadores e manutenção da competitividade tecnológica nacional.

May 01, 2026 - 18:02
0 1
PL 2338/2023 e o Dilema dos Direitos Autorais: Como o Marco Legal da IA Pode Redefinir a Competitividade Brasileira na Economia Digital

Introdução

A regulação da inteligência artificial no Brasil atingiu um estágio de maturação que revela tensões estruturais profundas entre valores em competição no interior da sociedade brasileira. O Projeto de Lei 2338/2023, que estabelece o marco legal da IA após aprovação unânime pelo Senado em dezembro de 2024, representa o esforço legislativo mais consolidado do país para disciplinar o desenvolvimento e uso de sistemas algorítmicos que afetam diretamente a vida de milhões de cidadãos. Contudo, tramitando atualmente na Câmara dos Deputados para apreciação final, o projeto enfrenta um nó górdio de difícil resolução: o tratamento dos direitos autorais aplicáveis à IA generativa, particularmente no que se refere à utilização de obras protegidas para treinamento de modelos de linguagem e sistemas criativos automatizados. A manera como o ordenamento jurídico brasileiro equilibrar a proteção dos criadores de conteúdo com o fomento à inovação tecnológica determinará, em grande medida, a posição do país na corrida global pelo domínio da inteligência artificial.

O debate sobre direitos autorais e IA generativa não é exclusivamente brasileiro, constituindo uma das questões mais controversas na regulação internacional da tecnologia. A União Europeia, com seu AI Act, adotou abordagem que combina transparência obrigatória com mecanismos de remuneração aos titulares de direitos, enquanto os Estados Unidos permanecemando se a utilização de obras para treinamento configura ou não uso justo (fair use) sob a legislação americana. No Brasil, o PL 2338/2023 propôs um sistema de opt-out que permite aos titulares de direitos autorais proibir a utilização de suas obras para treinamento de IA, combinado com a obrigatoriedade de fundos de remuneração para creadores cujos trabalhos forem utilizados mesmo sem oposição explícita. A efetividade desse sistema depende de infraestrutura técnica complexa, de cooperação internacional com grandes language models e de capacidade de fiscalização que o país ainda não possui plenamente desenvolvida, constituindo incertezas que merecem análise aprofundada.

A relevância pública do tema transcende os interesses de setores específicos, alcançando questões estruturais sobre o modelo de desenvolvimento tecnológico que o Brasil deseja adotar. A opção por um marco regulatório mais restritivo em matéria de direitos autorais pode proteger a renda de creadores nacionais, mas simultaneamente eleva os custos de desenvolvimento de IAs no país, potencialmente afastando investimentos e concentrando o mercado nas mãos de grandes corporações internacionais capazes de arcar com os custos de licenciamento. Por outro lado, a adoção de modelo mais permissivo pode acelerar o desenvolvimento tecnológico nacional, mas ao custo de desproteger creadores que se veem impossibilitados de controlar a utilização de suas obras. A análise dessas tensões revela que não há resposta simples ou inocentes para a questão, exigindo do legislador e dos interpretes do direito capacidade de ponderação que reconheça a complexidade das forces em conflito.

O Sistema de Opt-Out e Seus Fundamentos Jurídicos no PL 2338/2023

O PL 2338/2023 adota, em seu regime de direitos autorais, um sistema de opt-out que permite aos titulares de direitos proibir a utilização de suas obras para treinamento de sistemas de inteligência artificial generativa. Esse modelo difere fundamentalmente do sistema de opt-in, em que o desarrollador de IA precisa obter autorização prévia do titular antes de utilizar sua obra, e também difere do modelo de fair use americano, que permite a utilização sem autorização prévia desde que configurado uso transformativo. O opt-out brasileiro ocupa posição intermediária: o criador pode manifestar sua oposição à utilização de suas obras, mas se não o fizer, o sistema de IA pode utilizá-las mediante pagamento de remuneração através de fundos coletivos a serem administrados por entidades de gestão coletiva. Essa estrutura busca equilibrar dois objetivos aparentemente contraditórios: garantir que creadores possam controlar o uso de suas produções e simultaneamente permitir que desenvolvedores de IA tenham acesso a bases de dados suficientemente amplas para treinamento de modelos competitivos.

A lógica do opt-out pressupõe que creadores que não manifestam oposição explícita consentem tacitamente com a utilização de suas obras mediante remuneração, reconhecendo que seria impraticável solicitar autorização individual de milhões de titulares de direitos para cada modelo de IA em desenvolvimento. Esse raciocínio, embora funcional do ponto de vista pragmático, levanta questões jurídicas delicadas sobre a natureza do consentimento tácito e sobre a efetividade da oposição em contexto tecnológico sofisticado. Críticos argumentam que muitos creadores desconhecem que suas obras estão sendo utilizadas para treinamento de IA, não possuindo consciência suficiente para exercer o opt-out, e que mesmo aqueles que desejam exercer sua oposição podem enfrentar barreiras técnicas que tornam o processo impraticável. A efetividade do sistema de opt-out depende, portanto, de infraestrutura de transparência que permita ao criador saber quando e como sua obra está sendo utilizada, informação que nem sempre está disponível aos detentores de direitos.

A obrigatoriedade de fundos de remuneração representa a segunda perna do sistema de proteção aos criadores estabelecido pelo PL 2338/2023. Esses fundos, a serem geridos por entidades de gestão coletiva como a EGEDA, a ABRAMUS ou a UBC, receberiam contribuições de desenvolvedores de IA proporcionais ao volume de utilização de obras protegidas, distribuindo os recursos aos creadores conforme critérios de utilização efetiva. Esse modelo coletivo busca resolver o problema da fragmentação de titulares de direitos, permitindo que creadores sejam remunerados mesmo sem identificação individual de cada utilização. Contudo, a operacionalização desse sistema apresenta desafios consideráveis: como mensurar a utilização de obras específicas se os modelos de IA são treinados com bases de dados massivas e cujos resultados não permitem tracing individual? Como definir critérios de distribuição que reflitam fielmente a contribuição de cada creador ao output final do sistema? Essas questões técnicas permanecem sem resposta Satisfatória na proposta atual, gerando incerteza jurídica que pode comprometer a efetividade do sistema de remuneração coletiva.

Mineração de Dados para Pesquisa: A Exceção e Seus Limites

O PL 2338/2023 estabelece distinção entre o uso comercial de obras para treinamento de IA e a utilização com fins exclusivamente acadêmicos ou científicos, oferecendo maior flexibilidade para atividades de pesquisa não orientadas ao lucro. Essa distinção busca proteger o ecossistema de inovação nacional, evitando que universidades e centros de pesquisa brasileiros sejam prejudicados por restrições que dificultem o desenvolvimento de modelos de IA no país. A lógica subjacente é que a pesquisa científica se beneficia do livre acesso a obras protegidas, enquanto empresas comerciais devem arcar com os custos de licenciamento como parte de sua operação. Contudo, a linha entre pesquisa e uso comercial nem sempre é clara, especialmente quando universidades estabelecem parcerias com empresas tecnológicas ou quando pesquisas são financiadas por corporações interessadas em resultados aplicáveis ao mercado.

A exceção de pesquisa representa,, reconhecimento de que a regulação de IA não pode ser uniforme para todos os setores, devendo acomodar particularidades do ecossistema de inovação nacional. Universidades brasileiras desenvolvem projetos de IA em áreas como saúde, agricultura e educação, frequentemente com recursos limitados e sem capacidade de arcar com custos de licenciamento similares aos de grandes corporações tecnológicas. A flexibilidade oferecida pelo PL busca exatamente permitir que esses projetos prossigam sem entraves, mantendo o Brasil competitivo na pesquisa acadêmica em inteligência artificial enquanto o país desenvolve capacidade industriall para aplicações comerciais. Contudo, críticos argumentam que essa exceção pode criar distorções no mercado, permitindo que grandes empresas Utilization estruturas universitárias como intermediários para acesso a obras protegidas sem os custos de licenciamento que competitores menores arcarão.

Impactos sobre a Competitividade Tecnológica Brasileira: Análise Económica do Regime Autorais

Pesquisas conduzidas por instituições brasileiras estimam que a adoção de modelo de direitos autorais mais restritivo pelo PL 2338/2023 pode impactar negativamente o Produto Interno Bruto do país em até 0,2% ao ano, refleixo da elevação de custos de desenvolvimento de IAs e da redução de investimentos em inovação tecnológica. Esse dado, embora pareça modesto em termos percentuais, representa montante bilionário em termos absolutos e pode traduzir-se em perda de competitividade internacional do setor tecnológico brasileiro frente a países que adotam regimes mais permissivos. A questão coloca em evidência a tensão entre proteção de direitos individuais (dos creadores) e benefícios sistémicos (da inovação tecnológica), tensionando o próprio conceito de propriedade intelectual como instrumento de desenvolvimento económico.

Para empresas brasileiras que desenvolvem ou utilizam sistemas de IA generativa, o novo regime autoral pode representar aumento significativo de custos operacionais, seja através do pagamento de contribuições a fundos de remuneração, seja através da necessidade de implementar sistemas de rastreamento de utilização de obras que permitam demonstrar conformidade com a lei. Pequenas e médias empresas enfrentam inúmer difficuldades para arcar com esses custos adicionais, que podem representar barreiras à entrada no mercado de IA generativa e consolidar a posição de grandes corporações com capacidade para absorver custos de compliance. O efeito concentração pode ser amplificado se grandes empresas internacionales, que já possuem capacidade de licenciamento em escala global, conseguirem custos marginais menores do que competidores nacionais que precisarão utilizar bases de dados licenciadas localmente.

Por outro lado, defensores do modelo argumentam que a proteção aos creadores nacionais representa condição necesaria para a manutenção de ecossistema criativo saudável no Brasil. Artistas, escritores, jornalistas e outros profissionais criativos dependem de direitos autorais como fonte de renda, e a utilização massiva de suas obras para treinamento de IAs sem remuneração adequada pode comprometer a viabilidade económica dessas profissões. O argumento económico subjacente é que creadores precisam ser incentivados a produzir conteúdo, e que a ausência de proteção adequada reduzirá a quantidade e qualidade de obras disponíveis para treinamento de futuros modelos de IA, criando um círculo vicioso de degradação da qualidade algorítmica. Essa perspectiva enfatiza que a proteção aos direitos autorais não é apenas questão de justiça distributiva, mas também condição para a sustentabilidade do próprio ecossistema de inovação em IA.

O Debate Técnico sobre a Viabilidade do Rastreamento de Obras Utilizadas

Uma das questões mais técnicas e simultaneamente mais relevantes para a eficácia do sistema de direitos autorais do PL 2338/2023 é a possibilidade de rastrear a utilização de obras específicas no treinamento de modelos de IA generativa. Os grandes language models que sustentam sistemas como ChatGPT, Gemini e Claude são treinados com bases de dados contendo centenas de bilhões de parâmetros, incorporando informações de milhões de obras em proporções que não permitem identificação de contribuições individuais. Quando um sistema de IA gera texto, imagem ou áudio, a contribuição de cada obra específica utilizada no treinamento é diluída na complexa teia de padrões estatísticos que constituem o modelo, tornando tecnicamente impossível determinar quanto cada creador contribuio para o output final.

Essa dificuldade técnica levanta questões fundamentais sobre a efetividade do sistema de remuneração coletiva proposto pelo PL 2338/2023. Se não é possível determinar quanto cada creador contribuiu para o treinamento de um modelo, como distribuir os fundos de remuneração de forma que reflita a utilização efetiva? A proposta de distribuição proporcional baseada em estatísticas agregadas pode resultar em remuneração que não corresponde à contribuição real, beneficiando creadores de obras amplamente disponíveis enquanto marginaliza aqueles cujas produções foram utilizadas em contextos mais específicos. Além disso, a própria identificação de quais obras foram utilizadas no treinamento enfrenta obstáculos técnicos consideráveis, pois desenvolvedores de IA podem resistir à divulgação de informações sobre suas bases de dados por razões de segredo comercial, dificultando a fiscalização do cumprimento da lei.

Direitos dos Afetados e Exigibilidade Prática: O Que o PL 2338 Realmente Garante

Além do regime de direitos autorais, o PL 2338/2023 estabelece um conjunto de direitos dos afetados por sistemas de IA que constituem avanços significativos na proteção dos cidadãos, mas cuja efetividade prática permanece incerta. O direito à explicação, que garante ao cidadão o direito de solicitar explicação clara quando uma decisão automatizada afetar seus direitos, representa conquista importante paraidade algorítmica. Contudo, a implementação desse direito enfrenta desafios consideráveis, pois sistemas de IA complexos frequentemente operam como "caixas-pretas" cujos critérios de decisão não são plenamente compreensíveis nem mesmo por seus desenvolvedores. A exigência de que empresas forneçam explicações sobre decisões algorítmicas pode resultar em explicaciones padronizadas que satisfaçam formalmente a exigência legal sem realmente comunicar ao afetado as razões determinantes da decisão.

O direito à revisão humana estabelece que decisões automatizadas em sistemas de alto risco podem ser contestadas perante um avaliador humano qualificado, garantindo que a palavra final sobre direitos de cidadãos não seja deleguda inteiramente a máquinas. Esse direito representa reconhecimento de que, independentemente do nível de sophisticação algorítmica, a tomada de decisões que afetam vidas humanas requer julgamento humano capaz de considerar contexto, nuance e circunstâncias excepcionais que algoritmos não conseguem captar. Na prática, contudo, a implementação desse direito depende de estrutura organizacional que muitas empresas não possuem, especialmente aquelas que operam com alta volumetria de decisões automatizadas. A revisão humana em massa pode tornar-se formality ritual que consome recursos sem efetivamente proteger cidadãos contra decisões algorítmicas equivocadas.

Os direitos de não discriminação e proteção contra vieses algorítmicos representam talvez as conquistas mais relevantes do PL 2338/2023 em termos de proteção de grupos vulneráveis. O texto proíbe expressamente a discriminação direta, indireta ou por viés algorítmico com base em raça, gênero, orientação sexual, religião, convicção política, condição socioeconômica ou deficiência, estabelecendo obrigação ativa para desenvolvedores e operadores de sistemas de IA de corrigir vieses identificados em seus modelos. Essa disposição tem particular relevância para sistemas de recrutamento, análise de crédito e acesso a serviços públicos, áreas onde vieses algorítmicos têm sido documentados em múltiplos contextos internacionais. Contudo, a demonstração de que um sistema de IA produziu discriminação exige acesso a dados e metodologias que frequentemente estão protegidas por segredos comerciais, criando asymetria probatória que pode comprometer a efetividade da proteção legal.

Governança e Fiscalização: O Papel da ANPD e os Desafios de Implementação

A arquitetura institucional proposta pelo PL 2338/2023 concentra na Autoridade Nacional de Proteção de Dados (ANPD) a responsabilidade pela fiscalização e regulação do setor de inteligência artificial, integrando-a ao Sistema Nacional de Regulação e Governança de IA (SIA). Essa escolha representou consolidação de tendência que já se verificava na administração pública brasileira, com a ANPD acumulando funções de regulação de IA e proteção de dados em uma mesma estrutura institucional. A vantagem dessa concentração é a existência de sinergias entre as duas áreas, pois sistemas de IA frequentemente processam dados pessoais e estão sujeitos tanto à lei de proteção de dados quanto ao marco da IA. A desvantagem é o risco de sobrecarga de uma autoridade já pressionada por múltiplas atribuições e recursos limitados.

As sanções previstas no PL 2338/2023 incluem multas de até R$ 50 milhões por infração ou até 2% do faturamento da empresa, valores que representam deterrent significativo para empresas de grande porte mas que podem ser desproporcionais para pequenas empresas e startups. A gradação das sanções em leves, médias, graves e gravíssimas demonstra preocupação do legislator com a proporcionalidade da punição, permitindo que infrações menos severas resultem em advertências e obrigações de adequação antes de aplicação de multas pecuniárias. A previsão de reincidência que dobra o valor da multa representa mecanismo adicional de стимулирования à conformidade, embora a efetividade desse deterrent dependa da capacidade da ANPD de fiscalizar e identificar infrações, capacidade essa que permanece incerta given os recursos limitados da autarquia.

Contrapontos

Muito do que se argumenta sobre os benefícios económicos do PL 2338/2023 para creadores nacionais baseia-se em pressupostos que merecem scrutiny crítico. Primeiro, não está claro que creadores nacionais efetivamente se beneficiarão do sistema de fundos de remuneração, pois as maiores corporações de tecnologia que desenvolvem IAs generativas são internacionales e podem não contribuir para fundos brasileiros se seus modelos não treinados majoritariamente com obras de criadores nacionais. Segundo, a elevação de custos de desenvolvimento pode simplesmente afastar investimentos do Brasil, reduzindo a atividade económica no setor de IA sem que creadores nacionais obtenham qualquer benefício adicional. Terceiro, o próprio pressuposto de que creadores serão prejudicados pela utilização de suas obras para treinamento de IA pode ser questionável: alguns arguedores sustentam que a exposição algorítmica pode efetivamente beneficiar creadores ao aumentar a visibilidade de suas obras e gerar novas oportunidades de remuneração através de channels tradicionais.

Há também questão fundamental sobre a competência do legislator brasileiro para regular aspectos de direitos autorais que possuem caráter intrinsecamente transnational. Modelos de IA como GPT-4 e Gemini são desenvolvidos por corporações americanas que treinam seus sistemas com bases de dados globais, incluindo obras de creadores brasileiros. Se o Brasil estabelecer regime de direitos autorais mais restritivo do que outros países, essas corporações podem simplesmente continuar operando no país sem alterar suas práticas de treinamento, assumindo o risco de infrigir a lei brasileira porque os custos de conformidade são menores do que os benefícios de acesso ao mercado brasileiro. A enforceability do marco legal contra corporações transnacionais representa desafio que o PL 2338/2023 não resuelve satisfatoriamente, bergantung de mecanismos de cooperação internacional que ainda estão em construção.

Conclusão

O PL 2338/2023 representa avanço significativo na regulação da inteligência artificial no Brasil, estabelecendo framework que posiciona o país entre as jurisdições mais ativas em governança algorítmica global. O tratamento dos direitos autorais, embora imperfeito, reflete tentativa genuína de equilibrar proteção aos creadores com espaço para inovação tecnológica, reconhecendo a complexidade de interesses em competição. A efetividade desse equilíbrio dependerá criticamente da regulamentação complementar que será editada pela ANPD e da capacidade do Estado brasileiro de fiscalizar o cumprimento da lei por corporações nacionais e internacionais. A transição do texto legal para a prática regulatória constitui desafio que exigirá recursos, expertise técnico e voluntad política que o país ainda está desenvolvendo.

As perspectivas para os próximos anos incluem a aprovação final do PL pela Câmara dos Deputados, possivelmente com emendas que.modifiquem aspectos do regime de direitos autorais, seguida de período de vacatio legis durante o qual empresas deverão se adequar às novas exigências. Espera-se que a ANPD desenvolva regulamentos técnicos que estabeleçam parâmetros operacionais para implementação do sistema de opt-out e fundos de remuneração, embora o timeline desse desenvolvimento permaneça incerto. O acompanhamento da implementação será fundamental para avaliar se o marco legal consegue atingir seus objetivos de proteção sem comprometer excesivamente a competitividade do setor tecnológico nacional, permitindo ajustes que a experiência prática certamente revelará necessários.

Permanecem questões em aberto que demandarão atenção contínua: a capacidade de creators nacionais de efetivamente exercer seu opt-out frente a sistemas desenvolvidos por corporações internacionales; a viabilidade técnica e económica dos fundos de remuneração coletiva; a efetividade da fiscalização por parte da ANPD; e os efeitos sobre o mercado de trabalho em setores criativos que podem ser impacted pela adoção de IA generativa. O marco legal da IA no Brasil constitui experimento regulatório de alcance desconhecido, cuja avaliação definitiva só pourra ser feita após anos de implementação e observação de seus efeitos concretos sobre a economia, a sociedade e a estrutura de inovação do país.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User