A virada de Trump na inteligência artificial: de liberdade técnica a testes obrigatórios
Modelos cada vez mais poderosos empurram o governo americano a mudar de posição — e impõem nova realidade ao setor
O que aconteceu e por que importa
No início de maio de 2026, o governo de Donald Trump anunciou uma mudança inesperado na política americana para inteligência artificial. Pela primeira vez, modelos de IA novos deverão passar por avaliações de segurança conduzidas pelo governo antes de chegarem ao mercado. A decisão, anunciada pelo Centro para Normas e Inovação em IA (Caisi), órgão vinculado ao Departamento do Comércio dos Estados Unidos, envolve acordos com Google DeepMind, Microsoft e xAI — e marca uma reversão da postura que Trump defendia desde seu retorno à Casa Branca, quando prometia menos regulação para acelerar a competitividade americana contra a China.
O estopim foi a descoberta do Mythos, um modelo desenvolvido pela Anthropic que demonstrou capacidade sem precedentes de identificar falhas em qualquer sistema digital. Testes internos da própria empresa revelaram que o Mythos conseguiu explorar vulnerabilidades em todos os principais sistemas operacionais e navegadores web quando instruído por um usuário a fazê-lo. Um dos bugs descobertos pelo sistema tinha 27 anos de idade e estava presente em software crítico da internet. Outro havia passado despercebido por cinco milhões de análises automatizadas. Diante desse nível de poder, nem mesmo a administração Trump pôde ignorar o risco.
A mudança de tom também reflete uma preocupação que atravessa o espectro político em Washington. Em 4 de maio, os repórteres Jeff Horwitz e Engen Tham, da Reuters, receberam o prêmio Pulitzer por uma investigação que revelou como a Meta permitiu que chatbots de inteligência artificial tivesse conversas de cunho sexual com crianças e lucrou com anúncios fraudulentos nas redes sociais mesmo após identificar que as ofertas eram falsas. Um documento interno da empresa projetava que 10% das receitas em 2024 viriam desses anúncios ilegais. A Meta declarou que o valor era uma estimativa imprecisa e exagerada, mas o dano reputacional e regulatório já estava feito.
O Mythos e o problema que ninguém previu
Desde janeiro de 2025, quando a China lançou o DeepSeek a uma fração do custo de desenvolvimento de modelos americanos, a narrativa dominante era de que os Estados Unidos dominavam os chamados "cérebros" da inteligência artificial: os grandes modelos de linguagem (LLMs), chatbots e microchips. A China liderava nos "corpos": robôs, drones e dispositivos físicos. Essa divisão, descrita por pesquisadores como Nick Wright, da University College London, parecia clara e estabilizada.
O Mythos mudou essa equação de forma inesperada. A Anthropic não desenvolveu o modelo pensando em cibersegurança, mas ele se tornou, involuntariamente, a ferramenta de hacking mais poderosa já criada. Durante os testes internos, a equipe de segurança da empresa constatou que o Mythos era capaz de identificar e explorar vulnerabilidades "em todos os principais sistemas operacionais e em todos os principais navegadores web", segundo publicação em blog da empresa. Em um caso, o sistema desenvolveu uma exploração para navegador que encadeava quatro vulnerabilidades diferentes simultaneamente.
O problema não é apenas teórico. A Anthropic informou que um hacker já utilizou ferramentas de IA para viabilizar uma invasão ao governo mexicano. A empresa criou então o Project Glasswing, iniciativa que concede acesso ao Mythos a um grupo seleto de empresas — Amazon, Apple, Microsoft e Cisco — para que testem o modelo contra suas próprias defesas e compartilhem descobertas. O acesso ao público em geral permanece bloqueado por tempo indefinido.
A decisão da Anthropic de não liberar o modelo
A Anthropic comunicou as capacidades do Mythos às autoridades americanas, incluindo a Agência de Segurança Cibernética e Infraestrutura (CISA) e o Instituto Nacional de Padrões e Tecnologia (NIST). A Agência de Segurança Nacional (NSA) teve acesso ao sistema e está realizando testes próprios. Newton Cheng, que lidera iniciativas de segurança cibernética na equipe Frontier Red Team da Anthropic, afirmou: "Achamos que isso não é apenas um problema exclusivo da Anthropic. É um problema de toda a indústria, que tanto empresas privadas quanto os governos precisam enfrentar."
A decisão de restringir o modelo contrasta com a postura histórica do setor, que historicamente lançou primeiro e regulou depois. Especialistas em segurança cibernética consideram a postura da Anthropic um precedente importante, mas questionam se todas as empresas fariam o mesmo em circunstâncias comparáveis.
A corrida Estados Unidos-China vista por dentro
Em paralelo ao debate sobre segurança, a disputa estratégica entre Estados Unidos e China pela liderança em inteligência artificial continua moldando decisões de ambos os países. Um relatório detalhado da BBC, publicado em abril de 2026, descreveu a competição como uma batalha entre "cérebros" e "corpos". Os Estados Unidos lideram nos modelos de linguagem, chatbots e microchips. A China domina em robôs, drones e dispositivos autônomos.
A Nvidia se tornou a primeira empresa do mundo a atingir um valor de mercado de 5 trilhões de dólares, consolidando a posição americana no hardware que sustenta os grandes modelos de IA. Os Estados Unidos mantêm um rígido sistema de controles de exportação para impedir que chips avançados cheguem à China, política que remonta aos anos 1950 e foi significativamente reforçada durante o governo Biden. A fabricante holandesa ASML é a única empresa capaz de produzir as máquinas de litografia ultravioleta necessárias para fabricar esses chips, e os Estados Unidos utilizam sua influência para impedir a exportação desses equipamentos para a China.
Foi nesse contexto que o DeepSeek gerou um impacto desproporcional. Lançado em janeiro de 2025, o chatbot chinês demonstrou capacidades comparáveis às dos modelos americanos, mas com uma fração do custo de treinamento. A reação do mercado foi imediata: em 27 de janeiro de 2025, a Nvidia perdeu 600 bilhões de dólares em valor de mercado em um único dia — a maior perda da história da bolsa americana. A pesquisadora Karen Hao argumentou que a política americana de controle de exportações pode ter tenido efeito contrário: sem acesso aos chips mais avançados, os desenvolvedores chineses foram forçados a inovar, acabando por acelerar a autossuficiência da China.
O debate sobre modelos abertos e fechados
A diferença de abordagem entre os dois países vai além do hardware. Nos Estados Unidos, empresas como OpenAI e Anthropic protegem rigorosamente sua propriedade intelectual. Na China, há uma tendência marcada em direção ao "código aberto": empresas chinesas publicam seus códigos online, permitindo que outros desenvolvedores os utilizem, aprimorem e redistribuam. Parmy Olson, colunista da Bloomberg e autora do livro Supremacy, afirma que isso permite que empresas chinesas "não precisem começar do zero" ao desenvolver novos modelos de IA.
Selina Xu, pesquisadora de políticas de IA na China e integrante da equipe do ex-chefe do Google Eric Schmidt, afirma que o modelo DeepSeek "foi um catalisador muito positivo para o ecossistema de IA chinês". Segundo ela, o modelo americano ainda é melhor, "mas talvez não por uma margem tão grande" — o modelo chinês pode chegar a 90% da capacidade por apenas 10% do custo.
Impactos práticos e o debate sobre empregos
Em meio a preocupações com segurança e geopolítica, uma voz frequentemente ignorada no debate público ganha força: a do mercado de trabalho. Jensen Huang, CEO da Nvidia, afirmou em maio de 2026 que "a inteligência artificial está a criar um enorme número de empregos". A declaração contradiz a narrativa de que a IA substituirá massivamente trabalhadores humanos em escala global.
Segundo dados do setor, a expansão da IA está gerando demanda por funções que não existiam há cinco anos: engenheiros de prompts, especialistas em alinhamento de modelos, analistas de viés algorítmico, arquitetos de infraestrutura de IA e especialistas em compliance de dados para sistemas autônomos. Ao mesmo tempo, setores como atendimento ao cliente, análise de dados simples e tarefas repetitivas de escritório enfrentam pressão crescente por automação.
No Brasil, a inteligência artificial já ocupa o primeiro lugar entre as ameaças citadas por empresas, à frente até de riscos climáticos e instabilidade econômica, segundo pesquisa de fevereiro de 2026. Em escala global, a IA figura como a segunda maior ameaça reputacional para empresas, atrás apenas de eventos geopolíticos.
Quem assume os custos quando a IA erra
A questão da responsabilidade civil e criminal ligada a sistemas de IA permanece largamente não resolvida. Quando um modelo de IA identifica uma vulnerabilidade em um sistema bancário e essa informação vaza, quem responde? Quando um veículo autônomo causado por IA gera um acidente fatal, quem paga? Quando chatbots de IA facilitam golpes financeiros ou conversas impróprias com crianças, qual é a responsabilidade da empresa que os criou?
Nos Estados Unidos, a ausência de uma estrutura regulatória federal clara para IA significa que litígios estão sendo decididos caso a caso, o que gera incerteza jurídica para empresas e consumidores. Na União Europeia, o Ato da IA impõe obrigações mais claras sobre sistemas de alto risco, mas sua implementação ainda enfrenta desafios práticos.
Contrapontos, críticas e limites da análise
A decisão do governo Trump de impor avaliações prévias não é unanimidade entre especialistas. Uma corrente argumenta que a medida representa apenas um gesto simbólico, já que o governo não tem capacidade técnica para avaliar a complexidade dos modelos de IA que as grandes empresas desenvolvem em ritmo acelerado. "O que o Caisi pode fazer em termos de avaliação, comparado ao que as empresas fazem em seus próprios testes? Não está claro", disse um especialista em política de IA que pediu para não ser identificado.
Há também o risco de que a regulação acabe por beneficiar os grandes jogadores, que têm recursos para atender aos requisitos governamentais, enquanto startups menores ficam de fora do mercado. Isso concentraria ainda mais o poder no oligopólio de big techs — um resultado aparentemente contrário aos objetivos declarados de fomentar inovação.
Outros críticos apontam que a mudança de postura do governo Trump pode ser mais estratégica do que genuína. Ao vincular os novos acordos a um programa que o governo anterior, de Joe Biden, já havia estabelecido, a administração Trump apresenta como inovação o que é, em essência, uma continuidade adaptada. O Caisi substituiu um órgão criado na gestão Biden dedicado à segurança da inteligência artificial — órgão que Trump havia criticado e cujas medidas havia revogado ao assumir.
Por fim, a própria narrativa de segurança nacional pode ser usada para justificar restrições que, na prática, protegem empresas americanas da concorrência internacional. Controles de exportação, testes governamentais e requisitos de divulgação criam barreiras que aliados e adversários não conseguem ultrapassar com a mesma facilidade.
Cenários e o que vem pela frente
É impossível prever com precisão para onde a corrida pela IA está nos levando. Greg Slabaugh, professor de visão computacional e IA na Queen Mary University of London, afirma que "a 'vitória' provavelmente não será um momento único, como o pouso na Lua. O que importa é a vantagem sustentada: quem lidera em capacidade, quem incorpora a IA de forma mais eficaz na economia e quem define os padrões globais."
Dois cenários se destacam. No primeiro, os testes prévios exigidos pelo governo americano se tornam um novo padrão global, e os principais países estabelecem protocolos de avaliação de riscos como condição para o lançamento de modelos de IA avançados. Nesse cenário, a segurança prevalece sobre a velocidade, e a inovação passa a ser medida não apenas pelo poder dos modelos, mas também pela sua confiabilidade.
No segundo cenário, os requisitos de avaliação se mostram lentos, burocráticos e incapazes de acompanhar o ritmo de desenvolvimento — o que leva empresas a operar em jurisdições mais permissivas, ou a lançar modelos em mercados fora dos Estados Unidos antes de obter aprovação doméstica. Nesse caso, os testes governamentais se tornariam uma formalidade sem substância prática.
O Mythos demonstrou que a capacidade técnica está à frente da governança em todos os países. A questão central não é se a IA vai transformar a sociedade, mas se as instituições conseguem se adaptar rápido o suficiente para garantir que essa transformação não ocorra às custas da segurança, da privacidade e da dignidade das pessoas. Como afirmou Chris Fall, diretor do Caisi: "Uma ciência de medição independente e rigorosa é essencial para compreender a IA de ponta e suas implicações para a segurança nacional." O consenso sobre como fazer isso, porém, ainda está longe de existir.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)