Inteligência Artificial: O Que É, Como Está Regulamentada no Brasil e Quais os Impactos na Sociedade
A inteligência artificial já transformou a economia e o cotidiano global. Entenda o estado da regulamentação no Brasil, os impactos no mercado de trabalho e os desafios éticos que cercam a tecnologia.
O que é a inteligência artificial e por que ela já mudou o mundo
A inteligência artificial deixou de ser tema de ficção científica para se tornar o motor silencioso que movimenta a economia global. De forma simples, IA é o campo da ciência da computação dedicado à criação de sistemas capazes de realizar tarefas que, tradicionalmente, exigiriam inteligência humana. Isso inclui compreender linguagem natural, reconhecer padrões em grandes volumes de dados, gerar conteúdos como textos, imagens e vídeos e tomar decisões com base em informações complexas.
O marco que acelerou essa revolução foi o lançamento do ChatGPT, em novembro de 2022. A partir dali, modelos de linguagem de grande escala democratizaram o acesso a ferramentas de IA generativa, permitindo que qualquer pessoa com conexão à internet pudesse interagir com sistemas capazes de redigir textos, resumir documentos, escrever código de programação e responder a perguntas complexas. A velocidade de adoção dessa tecnologia superou a do computador pessoal e a da própria internet em seus primeiros anos.
No Brasil, a expansão foi igualmente acelerada. Empresas de todos os portes passaram a incorporar chatbots com IA para atendimento ao cliente, algoritmos para detecção de fraudes financeiras, ferramentas de análise preditiva para vendas e sistemas de recomendação personalizados para comércio eletrônico. Segundo levantamento da KPMG publicado em dezembro de 2025, a inteligência artificial deveria se tornar o foco principal de investimentos corporativos no país ao longo de 2026, com adoção crescente em processos de back-office, marketing e gestão de relacionamento com clientes.
A regulamentação no Brasil: o PL 2338/2023 e a Resolução CNJ 615/2025
O Brasil vinha operando em um vácuo regulatório no que diz respeito à inteligência artificial. Essa situação começou a mudar em fevereiro de 2025, quando o Conselho Nacional de Justiça publicou a Resolução 615, que estabelece diretrizes para o desenvolvimento, a implantação e o uso de soluções de IA no Poder Judiciário. A norma, publicada em 11 de março de 2025, criou o Comitê Nacional de Inteligência Artificial do Judiciário, com 13 integrantes, e proíbe terminantemente que sistemas de IA sejam utilizados como instrumentos autônomos de tomada de decisões judiciais. A última palavra, em qualquer caso, permanece com o magistrado, que assume responsabilidade integral pelo que decidir.
O que a Resolução CNJ 615/2025 permite e proíbe
A norma autoriza o uso de IA como ferramenta auxiliar em diversas atividades: ajuda na formulação de perguntas em audiências de instrução e julgamento, detecção de contradições em depoimentos em tempo real, classificação temática de processos, organização de argumentos das partes e alertas ao juiz sobre decisões que possam contrariar precedentes já firmados. Simultaneamente, veda o uso de IA para fazer juízos de valor sobre traços de personalidade ou comportamentos de pessoas naturais, bem como para classificar ou ranquear indivíduos com base em seu comportamento social ou atributos pessoais. A resolução também determina que os tribunais adotem medidas para prevenir que a tecnologia viabilize tendências discriminatórias.
No âmbito legislativo, o Projeto de Lei 2338/2023, de autoria do presidente do Senado Rodrigo Pacheco, é o principal esforço para criar um marco legal abrangente para a IA no Brasil. Aprovado pelo Senado Federal em 10 de dezembro de 2024 e remetido à Câmara dos Deputados em março de 2025, o projeto propõe uma estrutura normativa que classifica sistemas de IA conforme seu nível de risco. Sistemas de risco inaceitável, como pontuação social de cidadãos ou manipulação subliminar de comportamentos, são expressamente proibidos. Sistemas de alto risco, que atuam em áreas como saúde, educação, justiça criminal e infraestrutura crítica, ficam sujeitos a obrigações reforçadas de documentação técnica, supervisão humana, avaliação de impacto e auditabilidade.
Os impasses que adiam a aprovação
A votação do PL 2338/2023 na Câmara dos Deputados foi adiada de final de 2025 para 2026. Os motivos incluem impasses políticos, disputas setoriais e um vício de inconstitucionalidade identificado pelo Poder Executivo: ao atribuir competências normativas à Autoridade Nacional de Proteção de Dados, o projeto tratou de matéria de iniciativa privativa do Executivo. Para resolver a questão, o governo enviou, em dezembro de 2025, um projeto de lei complementar que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial, formalizando o papel da ANPD como coordinadora do sistema. Esse projeto deverá ser apensado ao PL 2338, adicionando mais uma camada de complexidade à tramitação.
O contexto internacional: Europa, Estados Unidos e a corrida regulatória
O Brasil não está isolado nesse debate. A União Europeia tomou a dianteira ao aprovar, em março de 2024, o AI Act, o primeiro regulamento abrangente sobre inteligência artificial do mundo. A norma entrou em vigor em 1 de agosto de 2024 e terá aplicação plena a partir de 2 de agosto de 2026, com regras progressivas sendo implementadas desde fevereiro de 2025. O modelo europeu adota uma abordagem baseada em risco, assim como o PL 2338 brasileiro, classificando sistemas em categorias que vão das práticas proibidas às aplicações de risco mínimo, com obrigações proporcionais a cada nível.
Nos Estados Unidos, não há até o momento um marco legal federal comparável ao europeu. A administração Barack Obama editou relatórios e diretrizes sobre IA, e a administração Biden emitiu uma Ordem Executiva sobre IA em outubro de 2023, mas o Congresso norte-americano ainda não aprovou legislação abrangente sobre o tema. Enquanto isso, as big techs americanas Alphabet, Meta, Microsoft e Amazon elevaram suas projeções de gastos com inteligência artificial a níveis recordes, em uma corrida competitiva que transcende fronteiras.
A China também avançou em sua própria regulamentação, com regras sobre algoritmos de recomendação, deepfakes e geração de conteúdo por IA. Esse cenário global revela que a inteligência artificial se tornou um campo de disputa geopolítica e econômica, onde regras técnicas e comerciais se entrelaçam com questões de soberania nacional. O Brasil, ao buscar seu próprio marco legal, precisa conciliar proteção de direitos fundamentais com a competitividade de seu ecossistema tecnológico.
Impactos no mercado de trabalho: o que os dados mostram
Um dos debates mais sensíveis envolvendo a inteligência artificial diz respeito aos seus efeitos sobre o emprego. Um estudo do Banco Mundial publicado em 2025 analisou o impacto da IA generativa sobre a demanda por trabalho nos Estados Unidos utilizando dados em tempo real de vagas de emprego online. Os resultados são significativos: após o lançamento do ChatGPT, houve queda média de 12% nas vagas de ocupações com pontuações de substituição pela IA acima da mediana, entre o final de 2022 e junho de 2025. Esse efeito de substituição cresceu de aproximadamente 6% no primeiro ano para 18% no terceiro ano, indicando que os impactos se acumulam à medida que a tecnologia amadurece e se difunde.
O que acontece com os trabalhadores mais vulneráveis
A pesquisa do Banco Mundial aponta que a queda é mais acentuada para candidatos sem diplomas avançados e trabalhadores em início de carreira. Setores como apoio administrativo registraram redução de 40% nas vagas, enquanto serviços profissionais tiveram queda de 30%. No Brasil, uma pesquisa do IBGE e do Ipea publicada em abril de 2026 indicou que a inteligência artificial já reduz as chances de emprego para jovens em setores mais expostos à tecnologia, tendência semelhante à observada em países desenvolvidos.
Por outro lado, há evidências de que a IA também cria oportunidades. Um estudo de Brynjolfsson et al. sobre atendentes de call center demonstrou que o uso de um assistente conversacional baseado em IA generativa aumentou a produtividade, medida pelo número de problemas resolvidos por hora, em 14% em média. O impacto foi ainda mais expressivo para trabalhadores iniciantes e de baixa qualificação, com ganho de 34%, enquanto trabalhadores experientes e altamente qualificados quase não tiveram impacto adicional. Isso sugere que a IA pode funcionar como equalizador, difundindo as melhores práticas dos profissionais mais competentes e acelerando a curva de aprendizado dos menos experientes.
A perspectiva de longo prazo: destruição criativa
A perspectiva acadêmica majoritária, representada pelo trabalho de Acemoglu e Restrepo, sugere que o impacto da IA sobre o emprego deve ser analisado em termos de tarefas, não de empregos inteiros. Tecnologias podem automatizar tarefas antes feitas por humanos, criar novas tarefas intensivas em trabalho ou aumentar a produtividade de tarefas existentes. Historicamente, a automação destruiu algumas ocupações, mas criou outras, tanto diretamente quanto indiretamente, pela expansão de setores que se tornam mais produtivos. A incerteza está na velocidade e na distribuição desses efeitos: podem ser mais rápidos e mais concentrados do que em ondas tecnológicas anteriores.
Riscos éticos: vieses algorítmicos e discriminação estrutural
Além dos impactos econômicos, a inteligência artificial traz desafios éticos profundos. O fenômeno dos vieses algorítmicos ocorre quando erros sistemáticos em modelos de aprendizado de máquina produzem resultados injustos ou discriminatórios. Como os sistemas de IA aprendem a partir de dados históricos da sociedade, se esses dados contêm preconceitos, os algoritmos tendem a reproduzi-los e até amplificá-los.
Casos documentados incluem sistemas de reconhecimento facial com taxas de erro significativamente maiores para pessoas negras, algoritmos de contratação que desfavorecem mulheres em processos para cargos tradicionalmente masculinos e sistemas de concessão de crédito que replicam desigualdades socioeconômicas. Um parecer técnico sobre o tema, publicado na Revista de Direito Civil, señala que o viés algorítmico constitui uma forma contemporânea de discriminação estrutural, na medida em que naturaliza desigualdades ao apresentá-las como resultados objetivos de cálculos matemáticos.
Responsabilidade e prestação de contas
A questão da responsabilidade é particularmente complexa. Quando um sistema de IA toma uma decisão que causa dano a alguém, quem responde? O desenvolvedor do algoritmo, o operador que o implementou ou o usuário que forneceu os dados? O PL 2338/2023 tenta responder a essa questão ao detalhar que tanto o provedor quanto o operador de um sistema de IA podem ser responsabilizados, dependendo da natureza do dano e da participação de cada ator na cadeia de desenvolvimento e uso. Essa clareza é vital para mitigar riscos jurídicos e garantir que empresas não transfiram responsabilidades para sombras de opacidade algorítmica.
A LGPD, enquanto aguarda o marco legal específico da IA, já oferece instrumentos relevantes. O artigo 20 assegura ao titular de dados o direito de solicitar a revisão de decisões tomadas exclusivamente com base em tratamento automatizado quando essas decisões afetarem seus interesses, incluindo decisões de crédito e seleção de pessoal. O artigo 37 obliga o controlador a manter o Relatório de Impacto à Proteção de Dados Pessoais quando o tratamento representar risco elevado aos direitos dos titulares. Esses mecanismos, porém, precisam ser efetivamente aplicados e fiscalizados.
Cenários e incertezas: o que esperar para os próximos anos
O cenário mais provável para o Brasil nos próximos anos é a aprovação do marco legal da inteligência artificial, ainda que em versão revisada e provavelmente durante 2026. A pressão de empresas que precisam de segurança jurídica para investir, somada à necessidade de harmonizar a legislação nacional com padrões internacionais como o AI Act europeu, tende a acelerar a conclusão do processo legislativo. Contudo, os impasses políticos e técnicos que já provocaram adiamentos sucessivos indicam que o ritmo pode continuar mais lento do que o desejado.
Enquanto isso, a adoção de IA continuará a se expandir em todos os setores, inclusive no serviço público. Um estudo da FGV IBRE destaca que, entre janeiro de 2025 e fevereiro de 2026, foram analisados 88 tribunais, com 2,5 milhões de casos flagrados em que a IA poderia auxiliar na gestão de processos. Para quem atua no contencioso de massa, isso representa tanto uma oportunidade quanto um desafio: a tecnologia pode reduzir a morosidade da Justiça, mas exige adaptação profissional e atenção aos limites éticos de seu uso.
No campo econômico, as projeções são ambivalentes. A Linux Foundation estima que a inteligência artificial deve injetar US$ 1 trilhão na economia da América Latina até 2038, com o Brasil como principal beneficiário dessa onda. Porém, os ganhos dessa expansão tendem a ser concentrados em empresas e trabalhadores com acesso a educação tecnológica avançada, enquanto segmentos menos qualificados podem enfrentar dificuldade crescente de inserção no mercado de trabalho formal. O desafio para políticas públicas é garantir que a transformação tecnológica não se torne um vetor de concentração de renda e exclusão social.
Contrapontos e limites desta análise
É importante reconhecer os limites do que se pode afirmar com segurança sobre os impactos da inteligência artificial. As projeções sobre destruição de empregos, embora apoiadas em evidências empíricas parciais, são baseadas majoritariamente em dados de países desenvolvidos e podem não se aplicar integralmente ao contexto brasileiro, onde a informalidade, a diversidade regional e a estrutura produtiva diferem significativamente. Além disso, muitos estudos ainda não conseguem isolar o efeito específico da IA de outras tendências tecnológicas e econômicas simultâneas.
Do ponto de vista regulatório, há quem argumente que uma legislação excessivamente detalhada pode criar barreiras de entrada para startups e pequenos desenvolvedores, favorecendo as grandes empresas de tecnologia que já possuem recursos para arcar com compliance. Esse é um debate presente tanto no Brasil quanto na Europa e não tem resposta simples. O equilíbrio entre segurança jurídica, proteção de direitos fundamentais e estímulo à inovação segue sendo o principal desafio para legisladores, reguladores e sociedade civil.
Por fim, a própria definição do que constitui inteligência artificial permanece em evolução, tornando qualquer marco regulatório potencialmente defasado no momento de sua publicação. Tecnologias que hoje parecem de alto risco podem se tornar commodities ubíquas em poucos anos, enquanto aplicações hoje imprevistas podem emergir e exigir novas categorias de análise. A capacidade de adaptação contínua dos marcos regulatórios será, talvez, tão importante quanto seu conteúdo inicial.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)