Marco Legal da IA no Brasil: o que empresas precisam saber antes da votacao na Camara
Aprovado no Senado em 2024, o PL 2.338/2023 aguarda decisao final na Camara dos Deputados com expectativa de votacao em maio de 2026. Especialistas alertam para oportunidades e riscos de uma regulacao que pode definir a competitividade do pais no setor.
O que aconteceu e por que importa
O Projeto de Lei numero 2.338, de 2023, que institui o Marco Legal da Inteligencia Artificial no Brasil, esta a poucos dias de sua votacao definitiva na Camera dos Deputados. O texto foi aprovado pelo Senado Federal em dezembro de 2024, em votacao simbolica, e desde entao tramita na Casa baixa em regime de prioridade. O presidente da Camera, Hugo Motta (Republicanos-PB), e o relator do projeto, deputdao Aguinaldo Ribeiro (PP-PB), acertaram a apresentacao do parecer final para o dia 19 de maio de 2026, com votacao em plenacio prevista para o dia 27 do mesmo mes. Isso significa que o projeto pode se tornar lei dentro de poucas semanas, alterando de forma estrutural a forma como empresas desenvolvem, implementam e utilizam sistemas de inteligencia artificial no territorio nacional.
A relevancia do momento nao se resume ao simbolo politico de aprovar uma lei sobre tecnologia de alta complexidade. O contexto torna a votacao urgente por razoes concretas. Segundo levantamento citeado por especialistas do setor, 72% das empresas brasileiras ja utilizam IA em algum nivel de suas operacoes. O numero de startups com inteligencia artificial no nome cresceu 857% entre 2023 e 2025, segundo dados do ecossistema nacional. Mais da metade dos brasileiros ja interagem com sistemas de IA de alguma forma, seja no credito, na triagem de curriculos, no atendimento ao cliente ou na recomendacao de conteudo. A tecnologia que deveria ser regulada ja esta profundamente inserida na vida economica e social do pais. Sem um marco legal definido, empresas operam em clima de inseguranca juridica, consumidores ficam vulneraveis a decisoes automatizadas sem possibilidade real de contestacao, e o Estado brasileiro permanece sem ferramentas efetivas de fiscalizacao sobre sistemas que afetam direitos fundamentais.
Contexto historico e regatorio
A trajetoria do Marco Legal da IA no Brasil comecou formalmente em 2020, quando o Senado criou uma Comissao Temporaria Interna sobre Inteligencia Artificial, incumbida de estudar o tema e formular propostas. O trabalho resultou no PL 2.338, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), em 2023, com base em um minucioso relatiorio elaborado por uma comissao de juristas e especialistas. O projeto nasceu com ambicao de ser o primeiro texto de alcance nacional sobre IA na America Latina, acompanhando tendencias globais que ja se consolidavam em outros blocos economicos. A Uniao Europeia aprovara seu AI Act em 2024, apos anos de negociacao entre Estados-membros. Os Estados Unidos avançam com propostas fragmentadas por setor, mas sem marco federal unificado. O Brasil buscou posicionar-se nessa discussao internacional, alinhando definicoes de inteligencia artificial aos parametros da Organizacao para a Cooperacao e Desenvolvimento Economico (OCDE).
Antes do PL 2.338, havia nove projetos de lei tramitando simultaneamente sobre o tema no Congreso, cada um com enfoque diferente. O substitutivo aprovado pelo Senado em 2024 consolidou essas propostas em um texto unificado, que aborda desde principios eticos ate regras de transparencia algoritmica, passando por incentivos a inovacao nacional e penalidades por uso abusivo. Durante a tramitacao no Senado, o texto sofreu alteracoes significativas que provocaram debates intensos, especialmente sobre a utilizacao de dados protegidos por direitos autorais para treinamento de modelos de IA generativa, sobre o uso de identificacao biometrica remota em espacos publicos e sobre o modelo de responsabilizacao civil aplicavel a sistemas de alto risco. A votacao foi adiada diversas vezes, inicialmente prevista para o primeiro semestre de 2025, ate ser definitivamente remarcada para 2026, em meio a pressoes cruzadas de setores empresariais, organizacoes da sociedade civil e grupos de defesa de direitos fundamentais.
Dados, evidencias e o que os numeros mostram
Os dados disponiveis pintam um cenario de adocao rapida e pulverizada de IA no Brasil, sem que a estrutura regulatoria tenha acompanhado esse ritmo. A pesquisa citeada pela Entercast Consultoria indica que 72% das empresas brasileiras ja utilizam alguma forma de inteligencia artificial em suas operacoes, um percentual que posiciona o pais entre as nacoes com maior penetracao de IA no ambito empresarial na America Latina. O crescimento de 857% no numero de startups com "IA" no nome entre 2023 e 2025 revela a atracao de capital e talento para o setor, impulsionado pela popularizacao de modelos de linguagem e ferramentas generativas. Outro dado relevante e que 54% dos brasileiros utilizam IA de alguma forma, seja como consumidores de servicos baseados em recomendacao algoritmica, seja como clientes de instituicoes financeiras que usam modelos de credito automatizado.
O mercado global de IA, porem, acelerou de forma extraordinaria entre 2024 e 2026. As grandes plataformas internacionais lançaram agentes autonomos, sistemas multimodais e modelos de uso corporativo que ja estao embarcados nas operacoes de empresas brasileiras de todos os portes. Esse cenario amplia tanto as oportunidades quanto os riscos: sistemas que tomam decisoes sobre credito, contratacao, triagem de saude e acesso a servicos publicos operam em muitos casos sem supervisao humana efetiva e sem arcabouco regulatorio claro. O dado ausente na discussao e o custo real de implementacao de conformidade para empresas de diferentes portes. Nao ha, ate o momento, pesquisa abrangente sobre quanto as empresas brasileiras gastariam para se adequar ao texto do PL 2.338. Estimativas de especialistas indicam que apenas a documentacao de algoritmos e a realizacao de avaliacoes de impacto algoritmico representariam custo inicial significativo, mas reduziriam riscos legais no medio e longo prazo. A lacuna central de dados refere-se a capacidade real da Autoridade Nacional de Protecao de Dados (ANPD) de atuar como orgao fiscalizador, considerando que a autarquia ja enfrenta desafios operacionais no cumprimento de suas funcoes relativas a LGPD.
Impactos práticos e consequências
O impacto direto do Marco Legal recai sobre qualquer organizacao que utilize sistemas de inteligencia artificial em processos que afetem pessoas. Isso abrange bancos que concedem credito com modelos algoritmicos, planos de saude que analisam autorizacoes de procedimentos via sistemas automatizados, plataformas de recrutamento que fazem triagem inicial de curriculos, fintechs que determinam limites de credito, seguradoras que precificam riscos com base em algoritmos e empresas de comercio eletronico que personalizam ofertas com IA generativa. Para esses agentes, o texto cria obrigacoes concretas: informar usuarios quando uma decisao que os afeta foi tomada ou influenciada por inteligencia artificial, realizar avaliacao de impacto algoritmico antes de colocar sistemas de alto risco em producao, garantir direito a revisao humana de decisoes automatizadas, proteger dados utilizados no treinamento de modelos e manter sistemas auditaveis por autoridades competentes.
No ambito setorial, os efeitos sao assimetricos. Empresas grandes, como Nubank e iFood, ja iniciaram processos de conformidade antecipada, reportando que a documentacao de algoritmos e a auditoria de vies representam investimento inicial significativo, porem geram retorno em termos de reducao de passivo judicial e aumento de confianca dos clientes. Startups e pequenas empresas enfrentam vulnerabilidade maior: a carga regulatoria prevista pode representar barreira de entrada ao mercado, especialmente para organizacoes que constroem produtos baseados em IA sem equipes juridicas estruturadas. O texto, porem, oferece um mecanismo de compensacao parcial por meio de Sandboxes Regulatórios, ambientes de teste controlados pela ANPD onde desenvolvedores locais podem experimentar inovacoes em condicoes regulatorias mais brandas. Outro ponto de impacto e a questao dos direitos autorais: empresas que desenvolvem modelos fundacionais e sistemas de IA generativa precisarao publicar relatorios detalhados sobre dados utilizados no treinamento, sob pena de incorrerem em sancoes que podem atingir 50 milhoes de reais ou 2% do faturamento.
Contrapontos, críticas e limites da analise
O setor empresarial concentrado na ABES (Associacao Brasileira das Empresas de Software) emitiu nota em janeiro de 2026 alertando para riscos de transposicao direta de regras europeias para o contexto brasileiro. A entidade argumenta que obrigar desenvolvedores a publicar, em site de facil acesso, um sumario com todos os conteudos protegidos utilizados nos processos de treinamento representaria barreira tecnica e comercial desproporcional, alem de potencialmente inibir o desenvolvimento de modelos de linguagem em lingua portuguesa. A visao do setor preocupa tambem com o custo de conformidade para empresas de menor porte e com a possibilidade de que o texto, tal como aprovado no Senado, gere inseguranca juridica por definicoes ambiguous de termos como "sistema de IA" e "alto risco". Ja o senator Eduardo Girao (NOVO-CE) votou contra o projeto no Senado, alegando que a proposta poderia inibir a inovacao e impor carga regulatoria excessiva ao setor tech nacional, numa visao alinhada com a crenca de que excesso de regulamentacao freia o desenvolvimento economico.
Do outro lado do espectro, organizacoes da sociedade civil como a Coalizao Direitos na Rede argumentam que o texto aprovado no Senado apresenta fragilidades na protecao de direitos fundamentais, especialmente no tocante ao uso de identificacao biometrica remota em espacos publicos, que permitiria excessos de vigilancia estatal sob pretexto de seguranca publica. A Asociacao Brasileira de Inteligencia Artificial sustenta que o modelo de responsabilidade objetiva para sistemas de alto risco, embora principio adequado, precisa de detalhamento sobre a natureza do nexo causal entre dano e sistema algoritmico para evitar litigios interminaveis. Especialistas em direito digital ouvidos pela JOTA apontam que a questao central para 2026 nao e mais se havera marco regulatorio, mas como sera estruturado o arranjo institucional capaz de fiscalizar e aplicar as regras, considerando que a ANPD ja opera com pressuposto orcamentario insuficiente para suas funcoes atuais. Ha, portanto, incerteza real sobre a capacidade de aplicacao da lei, mesmo que aprovada, o que limita o impacto pratico do marco legal no curto prazo.
Cenarios e síntese
O cenario mais provavel, na avaliacao de especialistas do setor, e a aprovacao do texto com modificacoes pontuais pelo plenacio da Camera, com votacao em 27 de maio de 2026. O relator Aguinaldo Ribeiro declarou em marco de 2026 que o texto estava "90% pronto", indicando que ajustes finais foram realizados para acomodar demandas do setor empresarial e da sociedade civil. Um cenario alternativo, porem menos provavel, seria a aprovacao com exigencia de adequacao gradual de 18 a 24 meses para empresas de menor porte, criando um calendario de implementacao escalonado que mitigaria o impacto imediato sobre startups. Tambem e possivel que a votacao seja adiada novamente, caso surjam destaques que atrasem a tramitacao no plenacio. Caso a lei seja aprovada, o impacto real sofrera na pratica dependera da capacidade da ANPD em estruturar sua area de fiscalizacao de IA, o que demandara reforco orcamentario e contratacao de perfis tecnicos especializados.
A sintese do momento regulatorio brasileiro aponta para uma decisao que definira o ambiente de IA no pais para a proxima decada. As empresas que iniciaram processos de adequacao antecipada terao vantagem competitiva ao operar em bases mais solidas de confianca juridica e protecao de dados. As que permaneceram em postura de espera enfrentarao janela de adaptacao curta apos a aprovacao. O aspecto mais incerto nao e mais a existencia ou nao de regras, mas sim a qualidade da governanca que sera construida em torno delas. Sem infraestrutura adequada de fiscalizacao, as regras existirao no papel mas nao mudarao a realidade do mercado. O acompanhamento do parecer de 19 de maio de 2026, portanto, nao e exercicio de comento: e avaliacao pratica de quais obrigacoes serao efetivamente impostas e quais mecanismos de flexibilidade foram incorporados ao texto final.
Nota editorial: Este conteudo foi produzido e revisado com apoio de inteligencia artificial, a partir de pesquisa em fontes publicas e criterios editoriais do andrebadini.com. O texto tem finalidade informativa e nao substitui consulta profissional, juridica ou tecnica especifica.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0




Comentários (0)