Welcome!

Unlock your personalized experience.
Sign Up

Governança global da inteligência artificial em 2026: entre a corrida tecnológica e o risco de fragmentação geopolítica

O cenário da IA em 2026 é marcado por investimentos recordes das big techs, iniciativas de governança multilateral em disputa e a dificuldade de países como o Brasil de afirmarem soberania tecnológica.

May 02, 2026 - 12:19
0 0
Governança global da inteligência artificial em 2026: entre a corrida tecnológica e o risco de fragmentação geopolítica

A corrida tecnológica global em ritmo acelerado

O ano de 2026 consolida uma tendência que se desenhava há anos: a inteligência artificial deixou de ser uma promessa futureira para se tornar o centro da estratégia econômica e geopolítica das maiores potências mundiais. Os investimentos das grandes empresas de tecnologia globais em IA devem alcançar 725 bilhões de dólares este ano, segundo projeções de consultorias especializadas, representando um aumento de 92% em relação ao ano anterior. Esse volume de capital, concentrado em um número pequeno de empresas, redefine a distribuição de poder econômico no setor tecnológico e cria desafios regulatórios sem precedentes para governos ao redor do mundo.

O crescimento exponencial da capacidade computacional, a queda nos custos de treinamento de modelos e a popularização de ferramentas de IA generativa criaram um ciclo de adoção que avança mais rápido do que a capacidade de instituições públicas e privadas de se adaptarem. Estudos citados pelo Global Tech Report 2026, publicado pela KPMG, indicam que empresas em setores como saúde, educação, indústria e serviços públicos já operam com integração significativa de sistemas de IA, e a velocidade dessa adoção supera a dos ciclos regulatórios tradicionais, que dependem de processos legislativos e administrativos mais lentos.

Os modelos de governança em competição

Esse cenário de aceleração tecnológica desenha uma disputa concreta entre modelos de governança. A União Europeia avançou com o AI Act, estabelecendo um arcabouço baseado em risco, com regras proporcionais à perigosidade de cada aplicação, forte ênfase em governança, rastreamento e explicabilidade dos algoritmos, e multas que podem alcançar 7% da receita global anual. O modelo europeu é o mais consolidado e detalhado existente, mas enfrenta críticas de empresas e do governo dos Estados Unidos, que o consideram excessivamente oneroso e potencialmente prejudicial à inovação.

Os Estados Unidos, sob a administração Trump, ocupam uma posição ambígua. Por um lado, não possuem uma lei federal específica de IA similar ao modelo europeu. Por outro, a Califórnia avançou com a SB-53, focada em modelos de IA de fronteira, e o governo federal emitiu ordens executivas que buscam estabelecer padrões federais como contraponto a regulação estadual mais rigorosa. Há também a pressão diplomática e tarifária sobre a União Europeia para alterar suas regras, numa demonstração de que o modelo americano busca, na prática, limitá-lo, ainda que retoricamente defenda a liberdade de inovação. O professor Luca Belli, da FGV Direito Rio e coordinador del Centro de Tecnologia e Sociedade, sintetiza: "O foco dos Estados Unidos não é o risco do sistema de IA contra usuários ou humanos, como no modelo europeu, mas contra a segurança nacional."

A posição do Brasil no cenário global de IA

Para o Brasil, o cenário global de IA apresenta tanto oportunidades quanto riscos significativos. O país possui ativos tecnológicos relevantes, incluindo o Plano Brasileiro de Inteligência Artificial (PBIA) 2024-2028, que prevê investimentos de 23 bilhões de reais em áreas como infraestrutura computacional, formação de profissionais e inovação empresarial. O Plano prevê a implantação de um supercomputador de alta performance e o desenvolvimento de modelos de linguagem em português baseados em dados nacionais, iniciativas que poderiam reduzir a dependência de modelos treinados predominantemente em inglês.

Paralelamente, o Ministério da Gestão e Inovação em Serviços Públicos (MGI) publicou em abril de 2026 a Portaria nº 3.485, que institui a Política de Governança de Inteligência Artificial na administração pública federal. A norma estabelece princípios como transparência, segurança, proteção de dados pessoais, supervisão humana e sustentabilidade socioambiental, além de definir uma estrutura de governança com papéis claros para a alta administração, comitês técnicos e responsáveis por áreas de segurança da informação. Essas iniciativas representam avanços concretos na tentativa de afirmar uma abordagem brasileira à IA, alinhada a diretrizes internacionais mas adaptada à realidade institucional do país.

O debate sobre o Marco Regulatório brasileiro

O principal instrumento legal em discussão é o Projeto de Lei nº 2.338/2023, que tramita no Congressso Nacional há mais de três anos. Aprovado pelo Senado em dezembro de 2024, o projeto aguarda votação na Câmara dos Deputados. O texto segue linha próxima à europeia, baseada em risco, e lista sistemas proibidos de IA, incluindo tecnologias que possam causar danos à saúde, segurança ou direitos fundamentais. O Projeto estabelece ainda obrigações de transparência, explicabilidade e supervisão humana para sistemas de alto risco.

No entanto, especialistas alertam para questões problematicas no modelo proposto. O professor Luca Belli destaca que, embora o sistema de governança previsto no PL seja "muito positivo" e inclua um Conselho Setorial, a agência responsável pela regulação efetiva seria a Autoridade Nacional de Proteção de Dados (ANPD), que não possui tradição de atuação efetiva como órgão regulatório. "Desde a sua criação, a agência impôs apenas uma sanção", lembrou Belli em entrevista. "Não é possível que o país tenha tido apenas um caso de violação de dados em todo esse tempo." A crítica aponta para um padrão de gap entre a letra da lei e a capacidade real de enforcement, um desafio crônico do sistema regulatório brasileiro que a IA pode agravar.

Os riscos da dependência tecnológica e a questão da soberania

A crescente integração de sistemas de IA em processos produtivos, serviços públicos e infraestrutura crítica levanta questões de soberania que vão além do debate regulatório. Dados do Banco Central e de organismos internacionais indicam que o Brasil ainda importa a grande maioria dos componentes de hardware e software de IA, o que cria vulnerabilidades em caso de restrições comerciais, mudanças cambiais abruptas ou interrupções na cadeia global de suprimentos. A posição de Lula, defendida em fóruns internacionais como a reunião ministerial sobre regulação de IA que reuniu Brasil, França e Índia em fevereiro de 2026, é que "se poucos controlam algoritmos, não é inovação, é dominação".

Especialistas em política tecnológica argumentam que a soberania digital depende não apenas de marcos regulatórios, mas de capacidade produtiva efetiva. "O Brasil tem ativos tecnológicos e estratégias, como alavancar compras públicas", disse o professor Belli. "Precisamos ter uma abordagem de sistema se não quisermos ser uma colônia digital." Essa avaliação ecoa debates mais amplos sobre a dependência tecnológica do Sul Global em relação a um pequeno número de empresas e países que dominam o desenvolvimento e a infraestrutura de IA.

O papel do Brasil na governança multilateral da IA

O Brasil tem buscado ocupar espaço na governança multilateral da IA, posicionando-se como um ator que articula posições do Sul Global. A defesa de Lula na ONU, de que a inteligência artificial aprofundará desigualdades históricas se não houver ação coletiva, representa uma tentativa de trazer a perspectiva dos países em desenvolvimento para um debate que, na prática, é conduzido por um pequeno número de economias avançadas. A aliança com França e Índia em torno de princípios comuns de regulação pode ser um passo em direção a uma governance mais pluralista.

No entanto, a capacidade efetiva do Brasil de influenciar normas globais de IA permanece limitada. A posição do país como importador líquido de tecnologia, a dependência de infraestrutura de nuvem de empresas norte-americanas, e a dificuldade de coordenação com outros países em desenvolvimento sobre posições conjuntas reduzem o poder de negociação. Há também divisões internas sobre o modelo de regulação: enquanto setores vinculados à inovação defendem uma abordagem mais flexível, organizações da sociedade civil e instituições de defesa de direitos humanos pressionam por regras mais rigorosas que protegiam particularmente grupos vulneráveis.

Contrapontos: as limitações da narrativa de soberania tecnológica

A narrativa da soberania tecnológica como imperativo nacional tem seus limites. Alguns analistas argumentam que o conceito pode ser instrumentalizado para justificar políticas protecionistas que não beneficiam efetivamente a sociedade, mas sim setores industriais específicos. A dependência de tecnologia importada não é, por si só, um problema se os benefícios dessa tecnologia superam seus custos. O argumento de que "soberania" exige produção doméstica de hardware e software de IA pode, na prática, resultar em tecnologias piores e mais caras para consumidores e empresas brasileiros.

Há também quem sustente que o debate sobre soberania digital muitas vezes ignora que a própria infraestrutura da internet é global e dependente de padrões definidos por poucos países. A tentativa de "soberania" pode resultar em fragmentação da rede, criando internets nacionais com menor interoperabilidade e menores benefícios para usuários. A experiência de países como a China, que construíram uma "Great Firewall" e conseguiram soberania digital ao custo de menor acesso a informações e maior controle estatal sobre a sociedade, não é necessariamente um modelo a seguir para democracias que valorizam a abertura e a liberdade de expressão.

Os limites da regulação em um ambiente de rápida mudança tecnológica

Uma crítica recorrente à regulação de IA é que ela pode se tornar obsoleta rapidamente, à medida que a tecnologia evolui. Regras desenhadas para modelos de linguagem podem não se aplicar a formas de IA ainda não existentes. O professor Ricardo Santana, sócio-líder de Data & Analytics da KPMG no Brasil, observa que o principal desafio para empresas globais é "como se posicionar nesse cenário de distintas escolhas regulatórias", reconhecendo que a velocidade de mudança do setor supera a capacidade de adaptação regulatória. Essa assimetria levanta questões legítimas sobre a eficácia de marcos regulatórios detalhados como o AI Act, que podem se tornar defasados antes mesmo de completarem sua implementação.

Por outro lado, defensores da regulação argumentam que a ausência de regras claras também tem custos: a insegurança jurídica disuade investimentos, gera concentração de mercado em empresas que podem arcar com riscos legais, e permite que sistemas de IA causem danos a indivíduos e grupos sem qualquer responsabilização. O caso de sistemas de IA usados em decisões de crédito, contratação ou serviços públicos mostra que a falta de transparência algorítmica pode perpetuar desigualdades e dificultar o exercício de direitos. A questão, então, não é se há regulação, mas como desenhar regras que sejam efetivas sem serem tão rígidas que se tornem irrelevantes rapidamente.

Cenários e síntese: o futuro da governança de IA e o lugar do Brasil

Os cenários para a governança global de IA nos próximos anos se dividem em três tendências principais. O primeiro é a continuidade da fragmentação regulatória, com diferentes jurisdições aplicando normas incompatíveis e empresas arcando com os custos de compliance múltiplo. O segundo é a convergência gradual em torno de um modelo hegemónico, seja o europeu de regulação baseada em risco, seja o americano de minimalismo regulatório com pressão de mercado. O terceiro, mais incerto, é a construção de novos mecanismos multilaterais que busquem padrões comunes sem impor a soberania de nenhuma potência específica.

O Brasil está em um momento de definição. As escolhas feitas agora sobre o Marco Regulatório de IA, sobre investimentos em infraestrutura e pesquisa, e sobre a posição do país na governança multilateral terão consequências de longo prazo para a capacidade nacional de Beneficiar-se da IA e de proteger-se de seus riscos. A alternativa entre ser um mercado passivo de tecnologia produzida em outro lugar ou construir capacidades próprias não é apenas técnica: é uma escolha sobre que tipo de desenvolvimento tecnológico e que modelo de sociedade o país quer ter em um futuro cada vez mais definido pela inteligência artificial.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User