IA & Ética

PL 2338: O Marco Legal da IA e o Impacto na Pesquisa

O PL 2338/2023 regulamenta a IA no Brasil. Entenda o que o Marco Legal da Inteligência Artificial significa para pesquisadores e para a ciência brasileira.

marco-legal-ia pl-2338 regulamentacao-ia pesquisa-academica ia-etica

O projeto de lei que vai mudar as regras do jogo

Vamos lá. Enquanto pesquisadores discutem se devem ou não declarar o uso de IA nos seus artigos, o Brasil está construindo, lentamente, o arcabouço legal que vai responder a essas perguntas por eles.

O PL 2338/2023, chamado de Marco Legal da Inteligência Artificial, foi aprovado pelo Senado Federal em dezembro de 2024. Depois de quase dois anos de debates, audiências públicas e negociações, o texto seguiu para a Câmara dos Deputados em 2025, onde a votação foi adiada para 2026.

Para a maioria dos pesquisadores que usam IA no dia a dia, esse projeto parece distante. É lei de governo, coisa de jurista. Mas não é. O que está sendo decidido ali vai moldar diretamente o ambiente em que a ciência brasileira opera.

O que o PL 2338 propõe, de forma clara

O projeto adota uma abordagem baseada em risco — modelo inspirado no AI Act europeu — para classificar sistemas de IA conforme o potencial de impacto que podem causar.

Risco mínimo: a maioria das ferramentas de uso geral, como assistentes de escrita e tradutores. São permitidas sem restrições significativas.

Risco limitado: sistemas com potencial de afetar decisões de menor impacto. Exigem transparência — o usuário precisa saber que está interagindo com IA.

Alto risco: sistemas usados em setores como saúde clínica, educação de avaliação formal, crédito financeiro, gestão de infraestrutura e aplicações no sistema de justiça. Exigem documentação, auditabilidade e supervisão humana.

Risco inaceitável: sistemas que manipulam comportamento de forma subliminar, fazem pontuação social generalizada de cidadãos ou exploram vulnerabilidades de grupos. Proibidos.

Para pesquisadores, a maioria das ferramentas de uso cotidiano — assistentes de escrita, ferramentas de análise bibliográfica, geradores de código para análise de dados — tende a se enquadrar no risco mínimo ou limitado.

Onde fica mais complexo é na pesquisa aplicada: um sistema de IA desenvolvido para diagnóstico clínico, decisão judicial ou classificação de risco em programas sociais provavelmente seria classificado como alto risco, com requisitos bem mais rigorosos.

Por que a pesquisa científica tem tratamento diferenciado

O projeto reconhece a pesquisa científica como categoria específica, com disposições para não travar o desenvolvimento tecnológico e a inovação. A ideia é que o rigor metodológico da ciência — com revisão por pares, comitês de ética, transparência de métodos — já funciona como um sistema próprio de governança.

Isso não significa que pesquisadores estão isentos de qualquer obrigação. Significa que as exigências para uso de IA em pesquisa básica e acadêmica tendem a ser menos pesadas do que para aplicações comerciais ou de tomada de decisão sobre pessoas reais.

O que permanece como obrigação para qualquer uso: transparência. O princípio de que o usuário — seja um participante de pesquisa, um leitor de artigo ou um membro de banca — precisa saber quando está diante de conteúdo produzido com auxílio de IA é considerado universal no texto do projeto.

O que ainda está sendo discutido — e não está resolvido

A Câmara dos Deputados está reexaminando partes do texto aprovado pelo Senado. Há pontos de tensão que afetam diretamente pesquisadores:

Direitos autorais sobre outputs de IA: como mencionado neste blog em outros posts, a questão de quem detém os direitos sobre conteúdo gerado por IA não está resolvida pelo PL 2338 nas versões em tramitação. Há proposta de remeter para legislação autoral específica — o que significa que a solução pode chegar separada e depois.

Regulação de modelos de base: a discussão sobre se os grandes modelos de IA (como os usados pelo ChatGPT, Claude e Gemini) devem ter obrigações específicas ainda está em aberto. Isso importa para pesquisadores porque afeta a transparência sobre como esses modelos foram treinados e o que os dados de pesquisa podem fazer lá dentro.

Autoridade regulatória: qual órgão vai fiscalizar o cumprimento da lei está sendo discutido. A escolha da autoridade regulatória vai determinar a velocidade e o rigor da implementação.

Inteligência artificial generativa: o texto original do Senado não regulou especificamente IA generativa (as ferramentas de geração de texto, imagem e vídeo) da mesma forma que regulou sistemas de IA para tomada de decisão. Isso está sendo revisado na Câmara.

Ter uma lei de IA não elimina a necessidade de julgamento ético individual e institucional. A lei estabelece um piso mínimo de obrigações. Ela não responde perguntas como “devo declarar que usei IA para refinar a escrita desta seção?” ou “é adequado usar IA para analisar transcrições das minhas entrevistas sem informar os participantes?”

Essas perguntas são éticas antes de serem jurídicas. E a ética na pesquisa científica tem suas próprias instâncias — comitês de ética, pareceristas, editoras, orientadores — que vão precisar de posições antes da lei entrar em vigor com força total.

O que o marco legal vai fazer é criar uma linguagem comum. Quando a lei definir o que conta como “sistema de IA de alto risco” e o que conta como “uso transparente de IA”, pesquisadores, instituições e editoras vão poder conversar sobre essas questões com terminologia compartilhada.

Antes disso, cada publicação, cada programa de pós-graduação e cada comitê de ética está inventando suas próprias categorias — o que gera inconsistência e insegurança para quem está no meio, tentando fazer boa ciência.

Como se preparar agora, antes da lei

Acompanhar a tramitação do PL 2338 é mais fácil do que parece: o Senado e a Câmara têm portais de acompanhamento de proposições onde qualquer pessoa pode consultar o andamento, ler o texto atual e ver as emendas.

Mais do que acompanhar, o que faz diferença agora é construir hábitos de documentação e transparência que vão resistir independentemente de como o texto final sair.

Se você documenta como usa IA no seu processo de pesquisa, você está preparado para qualquer versão de exigência de transparência que a lei venha a impor. Se você usa IA apenas em tarefas onde você mantém controle intelectual pleno sobre o resultado, você está alinhado com qualquer versão de requisito de supervisão humana.

A lei vai chegar. As práticas responsáveis precisam chegar antes — porque elas fazem sentido independentemente da legislação.

Fechando: a lei como reflexo de uma escolha coletiva

O PL 2338 não surgiu do nada. Ele é uma resposta coletiva à velocidade com que a IA entrou em todos os setores da vida social, incluindo a ciência. Que o Brasil tenha chegado a essa discussão com o projeto em estado avançado, antes de muitos outros países de renda média, é algo a notar.

O debate que está acontecendo na Câmara agora vai definir as regras do jogo para a IA no país por pelo menos uma década. Pesquisadores têm voz nesse processo — seja participando de consultas públicas, seja através das suas associações e sociedades científicas, seja simplesmente sabendo o que está sendo decidido e por quê.

Faz sentido? A ciência acontece dentro de um contexto social e jurídico. Entender esse contexto não é distração do trabalho científico — é parte dele.

Perguntas frequentes

O que é o PL 2338/2023 e por que importa para pesquisadores?
O PL 2338/2023 é o projeto de lei que regula o uso de IA no Brasil, aprovado pelo Senado em dezembro de 2024 e enviado à Câmara em 2025. Ele importa para pesquisadores porque estabelece princípios de transparência, responsabilidade e classificação de risco para sistemas de IA — afetando tanto o uso de IA nas pesquisas quanto os sistemas de IA que podem ser objeto de estudo.
O Marco Legal da IA vai restringir o uso de IA na pesquisa científica?
O PL 2338 adota abordagem baseada em risco. Atividades de pesquisa científica básica tendem a ter tratamento diferenciado, com menos restrições do que aplicações de alto risco (como sistemas usados em saúde clínica, justiça ou segurança pública). Mas a regulamentação ainda está sendo definida nas discussões na Câmara.
Quando o Marco Legal da IA vai virar lei no Brasil?
O PL 2338/2023 foi aprovado pelo Senado em dezembro de 2024 e enviado à Câmara dos Deputados em 2025. A votação na Câmara foi adiada para 2026, com discussões em andamento sobre o texto final. A previsão é de aprovação ainda em 2026, mas o cronograma pode mudar.
<