Governança da inteligência artificial no Brasil: entre a portaria do MGI e a espera do marco legal
Análise da Política de Governança de IA do Ministério da Gestão, do estágio do PL 2338/2023 na Câmara e dos desafios regulatórios que o Brasil enfrenta em 2026.
A governança de IA entra na agenda do Executivo
O Ministério da Gestão e da Inovação em Serviços Públicos publicou, em abril de 2026, a Portaria nº 3.485, que institui a Política de Governança de Inteligência Artificial no âmbito da pasta. O documento estabelece princípios, diretrizes e responsabilidades para o desenvolvimento, a aquisição e o uso de aplicações de inteligência artificial por um dos maiores ministérios do governo federal, responsável por áreas como a Escola Nacional de Administração Pública, o Arquivo Nacional e a Secretaria do Patrimônio da União.
A portaria não é um documento isolado. Ela se insere em um contexto mais amplo de transformação digital do Estado brasileiro e de fortalecimento de uma estratégia nacional para o uso responsável da tecnologia. A publicação ocorre semanas após o governo federal ter enviado ao Congresso Nacional um projeto de lei complementar ao PL 2338/2023, que busca corrigir um vício de iniciativa identificado no texto original. Essa movimentação simultânea indica que, pela primeira vez, o Executivo demonstra interesse ativo na regulamentação da IA, e não apenas na análise passiva de um projeto de iniciativa parlamentaria.
A norma define uma estrutura de governança composta por diferentes instâncias: a alta administração responde pela deliberação final sobre questões estratégicas; o Comitê de Governança Digital e Segurança da Informação delibera sobre políticas e casos sensíveis; o Subcomitê de Inteligência Artificial trata das questões técnicas específicas; e áreas de segurança da informação, tecnologia, dados e proteção de dados pessoais avaliam riscos e garantem conformidade legal. Trata-se de uma arquitetura que, se implementada conforme o previsto, representaria um avanço significativo na coordenação do uso de IA dentro do Executivo federal.
Transparência, supervisão humana e os limites da portaria
Dentre os princípios estabelecidos pela portaria, destaca-se a exigência de supervisão humana proporcional aos riscos identificados, especialmente quando houver potencial impacto sobre direitos ou bens públicos. A norma também impõe deveres a quem utiliza tecnologias de IA: zelar pela segurança das informações, comunicar incidentes, garantir transparência no uso e realizar revisão crítica de conteúdos gerados por sistemas, especialmente no caso de IA generativa.
Contudo, a portaria tem limitações que merecem atenção. Por se tratar de um ato administrativo de âmbito ministerial, ela não tem força de lei e não cria obrigações para o setor privado ou para outros Poderes. Sua abrangência está restrita ao MGI e aos órgãos vinculados, como a Enap e o Arquivo Nacional. Isso significa que milhares de outras aplicações de IA em órgãos públicos federais, estados e municípios permanecem sujeitas apenas a normas esparsas ou à ausência de regulação específica.
Também é relevante observar que a portaria proíbe o compartilhamento de dados sigilosos ou pessoais com sistemas de IA sem avaliação prévia de riscos e garantias adequadas. Essa disposição, embora sensata do ponto de vista da proteção de dados, pode enfrentar dificuldades práticas de implementação em um ambiente onde o uso de ferramentas como sistemas de processamento de linguagem natural baseados em nuvem se tornou corriqueiro em repartições públicas de todos os níveis.
O PL 2338/2023: a tramitação e os impasses
Enquanto a portaria do MGI avança na regulamentação interna do Executivo, o projeto de lei que pretende estabelecer um marco legal geral para a inteligência artificial no Brasil continua sua caminhada no Legislativo. O PL 2338/2023, de autoria do presidente do Senado Federal Rodrigo Pacheco, foi aprovado pelo Senado em dezembro de 2024 e remetido à Câmara dos Deputados em março de 2025, onde aguarda parecer do relator na Comissão Especial.
O projeto consolida, em texto único, iniciativas legislativas anteriores que tramitavam em separado, adotando uma estrutura normativa que combina princípios gerais, classificação de sistemas por nível de risco e obrigações específicas para desenvolvedores, operadores e usuários de IA. Em sua espinha dorsal, o projeto estabelece que sistemas de risco inaceitável, como aqueles que manipulam comportamentos de forma subliminar ou que implementam pontuação social de cidadãos, são expressamente proibidos. Sistemas de alto risco, que operam em setores como saúde, educação, justiça criminal, emprego e infraestrutura crítica, estão sujeitos a obrigações reforçadas de documentação técnica, supervisão humana, avaliação de impacto e auditabilidade.
A tramitação na Câmara não tem sido linear. A Comissão Especial realizou doze audiências públicas entre maio e setembro de 2025, com participação de especialistas, representantes do setor produtivo, sociedade civil e organismos internacionais. A votação, inicialmente prevista para o final de 2025, foi adiada para 2026 em decisão alinhada entre as presidências da Câmara e do Senado, em razão de impasses políticos e da ausência de consenso sobre pontos considerados sensíveis.
Os pontos de controvérsia que travam a aprovação
Os principais pontos de impasse revelam a complexidade do equilíbrio que o legislador precisa alcançar. De um lado, representantes do setor de tecnologia e entidades empresariais criticam o texto por sua excessiva rigidez regulatória, especialmente o modelo de compliance ex ante, que impõe obrigações antes mesmo do uso do sistema, criando barreiras consideradas desproporcionais para startups e pequenas empresas que desenvolvem soluções de IA.
De outro lado, organizações de defesa de direitos civis apontam que o texto aprovado pelo Senado já havia sido esvaziado em pontos críticos. A retirada de salvaguardas trabalhistas relacionadas à automação, por exemplo, foi vista como uma concessão ao lobby empresarial que pode gerar consequências negativas para milhões de trabalhadores cujas funções sejam progressivamente substituídas por sistemas automatizados. Também há crítica sobre a ausência de regras substantivas sobre direitos autorais no treinamento de sistemas de IA generativa, um tema que envolve interesses bilionários da indústria de tecnologia e de creadores de conteúdo artístico e intelectual.
A questão dos direitos autorais é particularmente sensível. O texto aprovado pelo Senado previa que empresas de tecnologia informassem quais obras protegidas foram utilizadas no treinamento de sistemas de IA e assegurava aos autores o direito de vetar esse uso. O debate na Câmara reacendeu as disputas sobre o alcance dessas disposições, com o setor cultural defendendo proteções mais amplas e o setor de tecnologia argumentando que exigências excessivas inibiam a inovação.
Dados, evidências e o que os números mostram
O Plano Brasileiro de Inteligência Artificial, lançado em 2024 e com vigência até 2028, prevê investimentos de R$ 23 bilhões para impulsionar o desenvolvimento e a aplicação de IA no país. Desse total, R$ 1,76 bilhão está reservado para o eixo 3 do plano, voltado para a melhoria dos serviços públicos, que é justamente o eixo sob responsabilidade do MGI e que dialoga diretamente com a portaria publicada em abril de 2026.
Entre as metas do PBIA estão a ampliação da infraestrutura tecnológica, com a implantação de um supercomputador de alta performance, o desenvolvimento de modelos de linguagem em português baseados em dados nacionais e a formação em larga escala de profissionais qualificados. A estratégia também reforça a importância de garantir direitos, proteger dados, fortalecer a democracia e promover a soberania digital, alinhando-se a princípios presentes na portaria do MGI e no próprio PL 2338/2023.
Dados do Banco Central e de instituições de pesquisa indicam que o uso de IA no setor financeiro brasileiro já é expressivo, com chatbots e sistemas de análise de crédito operando em larga escala. No setor público, however, a adoção é mais heterogênea. Enquanto alguns órgãos avançaram na implementação de assistentes virtuais e sistemas de automação de processos, outros ainda operam com infraestrutura tecnológica defasada e sem pessoal qualificado para lidar com as demandas da transformação digital.
O que os dados ainda não respondem
É importante reconhecer as lacunas informacionais que persistem sobre o tema. Não existe, até o momento, um inventário completo de todas as aplicações de inteligência artificial em uso no governo federal brasileiro, o que dificulta a avaliação de riscos sistêmicos e a coordenação de políticas. A portaria do MGI menciona a criação de um comitê de governança, mas ainda não foram divulgados detalhes sobre como essa estrutura operará na prática, quais ferramentas serão adotadas para o registro e monitoramento de sistemas de IA no âmbito da pasta, ou qual será o cronograma de implementação das obrigações previstas.
Tampouco há, no debate público brasileiro, estudos aprofundados sobre os impactos específicos da IA no mercado de trabalho nacional. Projeções internacionais, como as do Fundo Monetário Internacional, sugerem que uma proporção significativa dos empregos em países em desenvolvimento pode ser afetada pela automação nas próximas décadas, mas a aplicação direta desses números ao Brasil requer cautelas metodológicas que nem sempre são observadas nos debates sobre o tema.
Impactos práticos e consequências para a população
Para o cidadão comum, a ausência de um marco regulatório claro para a inteligência artificial tem consequências concretas. Quando um algoritmo nega um benefício social, quando um sistema de reconhecimento facial erra na identificação de uma pessoa negra, quando um chatbot de atendimento público fornece informações incorretas sobre direitos, não há, ainda, uma norma geral que determine quem é responsável, como o cidadão pode recorrer e quais sanções se aplicam ao fornecedor do sistema.
A portaria do MGI avança nesse terreno ao estabelecer que a supervisão humana deve ser proporcional aos riscos identificados e que a alta administração responde pela deliberação final sobre questões sensíveis. Contudo, essas disposições valem apenas para os órgãos sob a abrangência do Ministério e não criam direitos subjetivos para os cidadãos que interagem com serviços públicos automatizados fora desse âmbito.
No campo da responsabilidade civil e administrativa, a lacuna é particularmente relevante. Sem uma lei geral, bleibt a questão de quem responde quando um sistema de IA desenvolvido por uma empresa privada e contratado pelo poder público causa dano a um cidadão. O Código de Defesa do Consumidor e o Código Civil ofrecen alguma base jurídica, mas não foram concebidos para lidar com a complexidade técnica e ética dos sistemas de aprendizado de máquina, que frequentemente operam como caixas-pretas cujos critérios de decisão não são plenamente explicáveis nem mesmo para seus criadores.
Governança corporativa e o papel das empresas
A governança de IA não é um tema restrito ao setor público. O setor empresarial brasileiro enfrenta pressões crescentes de investidores, clientes e parceiros internacionais para demonstrar que utiliza sistemas de inteligência artificial de forma responsável e em conformidade com padrões internacionais. Regulamentações como o AI Act europeu, que impõem obrigações a empresas que desejam operar no mercado europeu independentemente de onde estejam sediadas, criam incentivos indiretos para que empresas brasileiras adotem práticas de governança compatíveis com padrões globais.
A regulamentação brasileira ainda está em formação, mas já é possível identificar tendências. O PL 2338/2023, em sua versão aprovada pelo Senado, estabelece um regime de responsabilidades para desenvolvedores e operadores de sistemas de IA que, embora menos detalhado do que o AI Act europeu, aponta na mesma direção de uma governança baseada em risco. Para empresas que já utilizam ou planejam utilizar IA em seus processos, a'attente do marco legal não deve ser desculpa para postergar investimentos em estrutura de compliance e em práticas de transparência algorítmica.
Contrapontos, críticas e limites da análise
Uma crítica frequente aos processos de regulamentação de IA no Brasil é que o país pode estar adotando uma abordagem excessivamente cautelosa que arrisca ficar atrás na corrida tecnológica global. Segundo essa visão, enquanto o Brasil discute regras, outros países já estão implementando aplicações de IA em larga escala e acumulando vantagem competitiva. O argumento tem alguma procedência, mas ignora os riscos de uma adoção sem governança adequada, que podem gerar custos tão elevados quanto a própria ausência de regulação.
Outra crítica, de sentido oposto, aponta que as disposições do PL 2338/2023 já são insuficientes para proteger direitos fundamentais frente ao poder dos sistemas de IA. Según essa perspectiva, a classificação de sistemas por nível de risco é um modelo que pode ser facilmente contornado por empresas que redesignam seus produtos para evitar kategorizações mais rigorosas. Essa crítica é relevante, mas também vale lembrar que modelos regulatórios nunca são perfeitos e que a alternativa de não regular também tem custos e riscos próprios.
Também é importante reconhecer que parte significativa da governança de IA no Brasil ocorrerá, necessariamente, por meio de autorregulação e de códigos de conduta setoriais, especialmente em áreas onde a velocidade da inovação supera a capacidade de reação do legislador. O desafio para o poder público é criar incentivos para que essa autorregulação seja genuína e efetiva, e não meramente uma fachada para evitar obrigações mais substantivas.
Cenários e síntese
Para o horizonte de 2026 e 2027, três cenários se delineiam para a governança de IA no Brasil. No cenário de avanço, o PL 2338/2023 é aprovado pela Câmara com modificações que preservam o equilíbrio entre inovação e proteção de direitos, a portaria do MGI se mostra eficaz como modelo a ser replicado por outros ministérios e o PBIA Attains suas metas de infraestrutura e formação de profissionais, creando condições para uma inserção competitiva do país no cenário global de IA.
No cenário de estagnação, a aprovação do marco legal permanece travada por impasses políticos e a portaria do MGI permanece como initiative isolada, sem efeito multiplicador sobre o restante da administração pública. Nesse cenário, o Brasil continuaria a operar com um mosaico de normas setoriais e internas, sem coerência sistêmica e com lacunas significativas de proteção aos cidadãos.
No cenário de retrofit, uma crise pública relacionada ao uso indevido de IA, como um caso de discriminação algorítmica em grande escala ou a utilização de deepfakes para fraudes em serviços públicos, gera pressão por regulamentação apressada e potencialmente mal calibrada, que poderia impor obrigações desproporcionais ao setor de tecnologia ou, alternativamente, concentrar poder de fiscalização em mãos que não oferecem garantias adequadas de transparência e responsabilização.
A síntese que se impõe é que a governança de IA no Brasil está em um momento decisivo. A portaria do MGI demonstra que o Executivo reconhece a necessidade de estruturar o uso da tecnologia na administração pública. A tramitação do PL 2338/2023 na Câmara reflete os desafios de construir consenso sobre um tema que envolve interesses econômicos significativos e direitos fundamentais em tensão. O desfecho dependerá, em grande medida, da capacidade dos atores políticos e da sociedade civil de engajarem-se de forma substantiva com as questões técnicas e éticas envolvidas, superando tanto a euforia tecnológica quanto o pânico moral. A ausência de um marco legal não é, por si só, uma catástrofe; mas a permanência nessa indefinição tem custos que se acumulam a cada mês de waits e que podem se tornar difíceis de reverter.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)