Regulamentação do CNPq sobre IA: o que muda para você
O CNPq atualizou suas diretrizes sobre uso de IA na pesquisa. Entenda o que mudou e como isso afeta sua dissertação e seus artigos.
Quando a regulamentação bate na porta do laboratório
Olha só: se você acompanha as discussões sobre inteligência artificial na academia, já percebeu que o cenário está mudando rápido. Periódicos internacionais atualizaram suas políticas, universidades criaram comissões, e agora as agências de fomento brasileiras estão se posicionando.
O CNPq publicou diretrizes atualizadas sobre o uso de inteligência artificial em pesquisas financiadas com recursos públicos. E se você é pesquisador com bolsa, submete projetos a editais, ou simplesmente quer entender para onde as regras estão caminhando, esse assunto te afeta.
Não é motivo para pânico. Mas é motivo para prestar atenção.
O que as diretrizes do CNPq dizem na prática
O ponto central é transparência. As diretrizes exigem que pesquisadores declarem o uso de ferramentas de IA em qualquer etapa da pesquisa, incluindo coleta de dados, análise, escrita e revisão.
Isso não significa que usar IA é proibido. Significa que esconder o uso é considerado falta de integridade. E essa é uma distinção que faz diferença: o problema não é a ferramenta, é a omissão.
Na prática, o que muda para você:
Se você usa ChatGPT, Claude, Gemini ou qualquer outra ferramenta generativa para ajudar na redação de artigos, projetos ou relatórios, precisa declarar. Se usa ferramentas de IA para análise de dados (classificação automática de textos, reconhecimento de padrões, análise de sentimentos), também precisa declarar. Se usa IA para revisão de literatura assistida, idem.
A declaração precisa ser específica. Não basta escrever “foram utilizadas ferramentas de IA”. O esperado é que você indique qual ferramenta, em qual etapa, e qual foi o papel da IA versus o papel do pesquisador.
Por que isso está acontecendo agora
Essa movimentação não surgiu do nada. Ela faz parte de um contexto mais amplo que começou a se intensificar a partir de 2023, quando ferramentas de IA generativa se tornaram acessíveis a qualquer pessoa com acesso à internet.
A comunidade científica percebeu rapidamente que a IA poderia ser usada de formas que comprometem a integridade da pesquisa: artigos com referências inventadas por modelos de linguagem, textos submetidos sem revisão humana adequada, dados gerados ou manipulados por algoritmos sem verificação.
Periódicos como Nature, Science e The Lancet publicaram políticas sobre IA em 2023 e 2024. A COPE (Committee on Publication Ethics) atualizou suas recomendações. No Brasil, a CAPES e várias universidades começaram a discutir o tema nos seus comitês de integridade.
O CNPq, como principal agência de fomento à pesquisa do país, se posicionar é um passo natural nesse processo. E a tendência é que outras agências estaduais sigam na mesma direção.
O que as diretrizes NÃO dizem (e que você precisa entender)
As regulamentações atuais não definem um limite preciso entre “uso aceitável” e “uso inaceitável” de IA. Isso não é um defeito do documento. É reflexo do fato de que a tecnologia evolui mais rápido do que as normas conseguem acompanhar.
Algumas situações ficam em zona cinzenta:
Usar IA para traduzir seu artigo do português para o inglês: é uso legítimo? A maioria dos periódicos e agências entende que sim, desde que o pesquisador revise o resultado e mantenha a responsabilidade sobre o conteúdo.
Usar IA para sugerir a estrutura do artigo: é diferente de usar para gerar parágrafos inteiros. A primeira situação se aproxima de uma ferramenta de organização; a segunda levanta questões sobre autoria.
Usar IA para análise de grandes volumes de dados: em muitas áreas, isso já é prática padrão há anos (algoritmos de machine learning em bioinformática, por exemplo). A diferença é que agora a expectativa é de documentação mais detalhada do processo.
O princípio que atravessa todas essas situações é o mesmo: o pesquisador é responsável pelo conteúdo final. A IA é ferramenta, não autora.
E vale lembrar que diferentes áreas do conhecimento têm relações muito distintas com a IA. Na bioinformática, algoritmos de machine learning são parte da metodologia há anos. Nas ciências humanas, o uso de IA na análise de texto está crescendo mas ainda gera desconforto em muitos pesquisadores. Não existe uma resposta única. O que existe é um princípio comum de transparência que se aplica independente da área.
Como declarar o uso de IA no seu trabalho
Se você está se perguntando como colocar isso na prática, aqui vão orientações baseadas no que periódicos e agências têm recomendado.
No artigo científico, inclua uma seção sobre uso de IA, geralmente depois da metodologia ou nos agradecimentos. Descreva a ferramenta usada (nome, versão quando possível), a etapa em que foi usada, e o que você fez com o resultado (revisou, editou, verificou). Alguns periódicos já têm campos específicos para essa declaração no processo de submissão.
No projeto de pesquisa, se você planeja usar IA em alguma etapa da pesquisa, descreva isso na metodologia. Explique como pretende usar, quais ferramentas considera, e como vai garantir a integridade dos resultados.
No relatório de prestação de contas ao CNPq ou outra agência, mencione o uso de IA se ele foi parte significativa do processo de pesquisa.
A regra de ouro é: se você ficaria desconfortável se um avaliador descobrisse que você usou IA naquela etapa, é melhor declarar. A transparência protege você.
O que isso significa para quem está na pós-graduação
Se você está fazendo mestrado ou doutorado agora, essas regulamentações te afetam de formas práticas.
Na relação com o orientador, vale ter uma conversa aberta sobre uso de IA. Muitos orientadores ainda estão formando suas próprias opiniões sobre o assunto, e alinhar expectativas cedo evita conflitos depois. Se o seu orientador é contra o uso de IA, respeite. Se é favorável, combine como declarar.
Na escrita da dissertação ou tese, a recomendação é a mesma que vale para artigos: use IA como ferramenta se fizer sentido para o seu trabalho, declare o uso, e mantenha a sua voz no texto. Lembre que a dissertação é avaliada como demonstração da sua capacidade de pesquisa. Se o texto não reflete o seu raciocínio, a banca vai perceber.
No Método V.O.E., a gente trabalha a escrita de uma forma em que a IA pode ser aliada, mas a autoria é sempre do pesquisador. A fase de Voz, por exemplo, é sobre construir um texto que soe como você. IA pode ajudar na Orientação (organização de ideias) e na Execução (revisão), mas a Voz precisa ser sua.
A regulamentação como oportunidade (não como ameaça)
Faz sentido? Muita gente vê regulamentação e pensa em restrição. Mas essas diretrizes podem ser lidas de outra forma.
Quando uma agência de fomento diz “declare o uso de IA”, ela está, implicitamente, dizendo que usar IA é aceito. O que não é aceito é esconder. Isso é uma abertura, não um fechamento.
Pesquisadores que aprendem a usar IA de forma ética e transparente estão se posicionando melhor do que aqueles que ignoram a ferramenta ou a usam sem critério. Saber usar IA com responsabilidade está se tornando uma competência profissional do pesquisador do século XXI.
As regras vão continuar evoluindo. O que você pode fazer agora é se informar, ser transparente no seu trabalho, e manter o critério em qualquer uso de tecnologia que faça. A integridade da pesquisa não depende de qual ferramenta você usa. Depende de como você usa.
E isso está nas suas mãos.