Governança da Inteligência Artificial em 2026: Os Desafios do Brasil entre EUA e Europa
Enquanto Estados Unidos e União Europeia avançam com modelos regulatórios opostos para a inteligência artificial, o Brasil tenta construir seu próprio marco legal. Entenda o que está em jogo.
O cenário global da regulação e por que importa
A inteligência artificial deixou de ser tema restrito a laboratórios de pesquisa e passou a ocupar o centro das discussões legislativas em múltiplas jurisdições. Em 2026, três grandes polos avançam com modelos distintos de governança, e o Brasil tenta encontrar seu espaço nesse tabuleiro geopolítico fragmentado. As abordagens divergem de forma significativa: os Estados Unidos optaram por frear a regulação federal, a União Europeia construiu o marco mais detalhado do mundo, e o Brasil segue em busca de seu próprio caminho.
O ponto central dessa disputa global é uma pergunta aparentemente simples, mas de resposta complexa: quem decide os limites do que uma máquina pode ou não fazer, especialmente quando essa máquina toma decisões que afetam a vida de milhões de pessoas? A resposta tem implicações diretas para setores que vão da saúde às finanças, passando por recrutamento, segurança pública e crédito.
Nos Estados Unidos, o governo federal adotou uma postura de cautela em relação a novas regras federais abrangentes. A Câmara dos Representantes, sob maioria republicana, aprovou em 2025 o chamado One Big Beautiful Bill Act, que inclui uma moratória de dez anos que impede estados de criarem leis próprias sobre inteligência artificial até que o Congresso aprove uma legislação federal unificada. Defensores argumentam que a medida evita a fragmentação regulatória que prejudicaria a inovação. Críticos alertam que a pausa nacional na regulação local pode abrir espaço para lacunas de proteção em temas sensíveis.
Na Europa, Bruxelas avançou com o AI Act, estabelecendo uma abordagem baseada em risco que classifica sistemas segundo seu potencial de dano e impõe obrigações proporcionais. Paralelamente, articulou-se um Código de Conduta voluntário para modelos de IA generativa, com negociações intensas entre reguladores e empresas como Google, Microsoft, Amazon e OpenAI. A versão final do Código foi adiada após impasses sobre obrigações mínimas de transparência.
Essa divergência de abordagens cria um cenário descrito como regulatório fragmentado, onde uma mesma tecnologia pode ser tratada de formas radicalmente diferentes dependendo do lugar onde é desenvolvida ou utilizada. Para empresas que operam globalmente, isso impõe custos de conformidade elevados e incertezas jurídicas.
A moratória norte-americana e seus riscos concretos
A medida aprovada nos Estados Unidos é significativa por seu alcance. Uma moratória de uma década que impede estados de criarem suas próprias leis sobre inteligência artificial representa, na prática, uma pausa nacional na capacidade regulatória local. Defensores argumentam que a fragmentação regulatória entre os cinquenta estados criaria um emaranhado jurídico que dificultaria a inovação e a competitividade no cenário global.
Críticos, porém, apontam para riscos concretos. Regulamentações locais em estados como Califórnia e Nova York frequentemente representaram avanços importantes na proteção de direitos civis contra tecnologias de vigilância e discriminação algorítmica. A moratória federal, ao congelar essas iniciativas por dez anos, pode criar lacunas de proteção justamente em áreas onde a supervisão local é mais necessária. Pesquisadores de organizações como a Electronic Frontier Foundation alertam que esse período sem regulação local pode permitir a expansão de tecnologias de reconhecimento facial e decisões automatizadas em contextos sensíveis.
Há ainda uma dimensão econômica nessa equação. A indústria de tecnologia norte-americana é líder global em modelos de inteligência artificial generativa. Argumenta-se que a ausência de regulação doméstica possa, a médio prazo, gerar pressão regulatória internacional sobre esses mesmos produtos quando são exportados. A estratégia de laissez-faire pode se mostrar contraproducente se outros países definirem padrões que se tornam de facto globais.
A abordagem europeia: AI Act, Código de Conduta e lições
A União Europeia representa o polo oposto no espectro regulatório. O AI Act, que entrou em fase de implementação progressiva a partir de 2025, estabeleceu uma abordagem baseada em risco, classificando sistemas segundo seu potencial de dano e impondo obrigações proporcionais. Sistemas de alto risco, como os utilizados em decisões de emprego, crédito ou aplicação da lei, enfrentam exigências de transparência, auditabilidade e supervisão humana. Sistemas considerados de risco mínimo ficam isentos de grande parte das obrigações.
Bruxelas articulou ainda a construção de um Código de Conduta voluntário para empresas que desenvolvem modelos de inteligência artificial generativa. O processo envolveu negociações intensas entre gigantes da tecnologia e reguladores europeus. As empresas participantes pressionaram por regras simples e de baixa fricção. Os reguladores, por sua vez, buscavam obrigações mínimas de transparência sobre os dados utilizados no treinamento dos modelos e sobre a rastreabilidade dos conteúdos gerados.
A versão final do Código, originalmente prevista para maio de 2025, acabou sendo adiada após impasses. Apesar dos atrasos, o projeto europeu é amplamente reconhecido como referência mundial por tentar equilibrar segurança jurídica, inovação responsável e proteção de direitos fundamentais. O AI Act permanece como modelo que influencia debates regulatórios em dezenas de países, incluindo nações da América Latina e do Sudeste Asiático.
O Brasil na corrida regulatória
O Brasil deu início formal a sua jornada regulatória em maio de 2025, com a instalação de uma Comissão Especial na Câmara dos Deputados para analisar o PL 2338/2023, já aprovado no Senado Federal. O projeto institui o chamado Marco Legal da Inteligência Artificial e propõe princípios, direitos e regras para o desenvolvimento e uso responsável da IA no território nacional. A Comissão conta com sessenta e seis parlamentares e prevê um calendário extenso de audiências públicas e seminários técnicos, com participação da academia, do setor produtivo e da sociedade civil.
O PL 2338/2023 é de autoria do presidente do Senado Federal, Rodrigo Pacheco, e tramitou no Senado ao longo de 2023 e 2024 antes de seguir para a Câmara. Na Casa revisora, sua tramitação enfrentou atrasos, e a expectativa inicial era que o parecer do relator fosse apresentado em novembro de 2025. Observadores do processo legislativo consideram provável que a votação final seja empurrada para 2026, ano de eleições municipais, quando a pauta legislativa tende a ser dominada por prioridades políticas mais imediatas.
Entre os temas em disputa no texto estão a responsabilidade civil por danos causados por sistemas de IA, as exigências de transparência nos algoritmos que afetam decisões de interesse público e privado, e os estímulos à pesquisa e inovação nacional na área. O Brasil busca se posicionar como referência regulatória na América Latina, num momento em que vários países da região ainda não possuem marcos legais específicos para a tecnologia.
LGPD e Marco Civil como alicerces existentes
Qualquer discussão sobre governança de IA no Brasil precisa considerar o arcabouço legal já existente. O Marco Civil da Internet, promulgado em 2014, estabeleceu princípios fundamentais para o ambiente digital brasileiro, incluindo a neutralidade de rede e a proteção de dados pessoais. A Lei Geral de Proteção de Dados, promulgada em 2018 e em vigor pleno desde 2020, criou obrigações detalhadas para o tratamento de dados pessoais, com a criação da Autoridade Nacional de Proteção de Dados como órgão fiscalizador.
Esses marcos legais oferecem uma base sobre a qual a regulação de IA pode se construir, mas também impõem desafios. A LGPD já aborda questões de decisão automatizada que são diretamente relevantes para sistemas de IA. Especialistas apontam que, em alguns aspectos, a LGPD pode ser mais específica do que o próprio PL 2338 em temas como o direito à explicação de decisões automatizadas. Isso gera dúvidas sobre como os dois instrumentos legais se articularão na prática, especialmente em casos de sobreposição normativa.
A coexistência entre LGPD, Marco Civil e o futuro Marco Legal da IA exige atenção cuidadosa à integração normativa. O desafio não é apenas criar novas regras, mas garantir que o conjunto do arcabouço legal seja internamente consistente e efetivamente aplicável por controladores, operadores e pelo próprio órgão regulador.
Impactos e consequências da fragmentação regulatória
A coexistência de modelos regulatórios tão distintos gera consequências práticas no curto e no médio prazo. Para empresas multinacionais que desenvolvem ou implementam sistemas de IA em múltiplas jurisdições, a necessidade de ajustar produtos e processos a padrões legais diversos eleva custos de conformidade e pode criar barreiras ao comércio de serviços digitais. Pequenas e médias empresas, que não possuem departamentos jurídicos robustos, são as mais penalizadas por essa fragmentação.
Há também um risco de arbitragem regulatória, pelo qual empresas transferem suas operações ou o processamento de dados para jurisdições com regras mais brandas, mesmo quando isso não é do interesse dos usuários. Esse fenômeno já foi observado em contextos como a tributação de serviços digitais, e pode se repetir na governança de IA se os diferenciais regulatórios forem suficientemente grandes.
Do ponto de vista da proteção de direitos, a fragmentação tem um custo adicional: não há garantia de que padrões mínimos de proteção sejam respeitados globalmente. Usuários em jurisdições com regulação fraca podem ficar expostos a sistemas de IA que tomam decisões opacas, discriminatórias ou de difícil impugnação, sem qualquer recurso efetivo.
Quem assume os custos da incerteza
As consequências da incerteza regulatória não se distribuem de forma uniforme na sociedade. Consumidores e trabalhadores são, em geral, os mais vulneráveis a sistemas de IA utilizados sem supervisão adequada. Decisões automatizadas em processos seletivos, na concessão de crédito ou no acesso a serviços públicos podem refletir vieses algorítmicos que reproduzem desigualdades preexistentes. Quando não há obrigação clara de transparência ou de recurso, essas decisões operam como caixas-pretas.
Setores que lidam diretamente com o público, como saúde, finanças e segurança, são os mais impactados pela ausência ou pela fragilidade da regulação. No setor financeiro, a utilização de modelos de scoring creditício baseados em aprendizado de máquina já levanta questões sobre discriminação e sobre a capacidade dos consumidores de contestar decisões automatizadas. No setor de saúde, algoritmos de triagem ou diagnóstico assistido por IA geram debates sobre responsabilidade profissional e sobre os limites da autonomia tecnológica.
O governo brasileiro enfrenta um dilema: regular demais pode afastar investimentos e frear a inovação em um setor estratégico, enquanto regular de menos expõe cidadãos a riscos concretos. A calibragem adequada dessas duas variáveis é o cerne do debate sobre governança de IA no Brasil e em qualquer país que tente navegar esse território.
Contrapontos, críticas e limites da análise
A narrativa que opõe regulação pesada a inovação sem freio é, por si só, uma simplificação que merece ser questionada. Nem toda regulação é inimiga da inovação: padrões claros podem, paradoxalmente, facilitar a adoção de novas tecnologias ao reduzir a incerteza jurídica e ao gerar confiança por parte de usuários e investidores. O AI Act europeu, apesar das críticas iniciais da indústria, tem sido citado como exemplo de regulação que, ao definir regras do jogo, permitiu a empresas europeias planejarem seus investimentos de longo prazo.
Há também uma crítica relevante à ideia de que o Brasil deveria simplesmente replicar modelos regulatórios externos. A realidade socioeconômica brasileira é distinta em aspectos importantes: o nível de inclusão digital, a estrutura do mercado de trabalho, a capacidade institucional de fiscalização e a concentração do setor de tecnologia são fatores que influenciam diretamente a viabilidade e a eficácia de qualquer marco legal. O que funciona em Zurique ou em São Francisco pode não funcionar em Curitiba ou em Recife.
Além disso, a própria tecnologia evolui em ritmo mais acelerado do que os processos legislativos conseguem acompanhar. Regulamentar sistemas específicos de IA hoje pode resultar em regras obsoletas dentro de poucos anos, à medida que novos modelos e capacidades emergem. Esse hiato entre o tempo da tecnologia e o tempo da lei é um dos limites fundamentais da governança regulatória tradicional quando aplicada ao campo da inteligência artificial.
Cenários e síntese: o que esperar
O cenário mais provável para os próximos anos é a manutenção da fragmentação regulatória global, com diferentes jurisdições continuando a desenvolver seus próprios marcos legais de forma descoordenada. Isso não impede, porém, que emergem convergências setoriais em temas específicos, como transparência algorítmica, proteção de dados e responsabilidade civil por danos causados por IA. Essas convergências podem se dar de forma ascendente, através de padrões técnicos desenvolvidos por organismos internacionais, ou descendente, através de acordos comerciais que incluam cláusulas sobre governança digital.
No Brasil, o PL 2338/2023 permanece como a proposta mais avançada de marco legal para IA, mas seu futuro depende de fatores políticos que vão além do mérito técnico da proposta. Um ano eleitoral traz incertezas adicionais sobre a capacidade de articulação política necessária para aprovar legislação tão complexa quanto essa. Mesmo que o projeto avance, a regulamentação infralegal subsequente será necessária para detalhar obrigações e criar mecanismos de enforcement, o que pode levar meses ou anos adicionais.
A perspectiva internacional oferece tanto riscos quanto oportunidades. O risco mais concreto é o de que o Brasil fique em uma zona intermediária: sem a regulação detalhada da União Europeia, mas também sem o ambiente de suposta liberdade dos Estados Unidos, gerando incerteza jurídica sem os benefícios de nenhum dos dois modelos. A oportunidade está em aprender com as experiências de outras jurisdições, adaptar boas práticas ao contexto nacional e construir um marco legal que equilibre segurança jurídica, inovação e proteção de direitos. Esse equilíbrio não é impossível, mas exige vontade política sustentada, diálogo técnico aprofundado e atenção contínua a um cenário tecnológico que não cessa de evoluir.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)