Posicionamento

CNPq Autoriza Uso de IA? O Que Diz a Regulamentação

O CNPq tem regras claras sobre uso de inteligência artificial em pesquisas financiadas? Veja o que a regulamentação atual diz e o que ainda é zona cinzenta.

cnpq inteligencia-artificial etica-na-pesquisa regulamentacao pos-graduacao

A pergunta direta merece uma resposta direta

Olha só: quando alguém pergunta “o CNPq autoriza o uso de IA?”, geralmente está buscando uma de duas coisas. Ou quer uma permissão explícita para usar IA no projeto sem culpa. Ou está com medo de estar fazendo algo errado sem saber.

A resposta honesta é: o CNPq não publicou, até a data deste post, uma política específica sobre IA em pesquisas financiadas. O que existe são as diretrizes gerais de integridade científica que a agência segue, e que se aplicam a qualquer ferramenta usada na condução da pesquisa.

Isso não significa que tudo está liberado. Significa que o campo ainda está sendo regulado, e que a responsabilidade fica com o pesquisador.

O que a regulamentação atual cobre

O CNPq opera sob as diretrizes do Ministério da Ciência, Tecnologia e Inovações (MCTI) e segue os parâmetros do Código de Boas Práticas Científicas da FAPESP e dos princípios internacionais de integridade em pesquisa, como os da COPE (Committee on Publication Ethics) e do Singapore Statement.

Nenhum desses documentos foi atualizado com uma seção dedicada a IA generativa. O que eles estabelecem, de forma geral, é:

  • Os dados e resultados apresentados devem ser verídicos e verificáveis
  • Os métodos utilizados devem ser descritos com clareza suficiente para permitir replicabilidade
  • A autoria deve refletir a contribuição intelectual real dos envolvidos
  • Plágio, fabricação e falsificação de dados são condutas reprováveis independente da ferramenta usada

Se o uso de IA violar algum desses princípios, a sanção se aplica. Se não violar, não existe proibição explícita.

O que as universidades e periódicos já regulamentaram

O que está mais avançado em termos de normatização não está nas agências de fomento, mas nas universidades e nos periódicos científicos.

Muitas universidades brasileiras publicaram resoluções próprias entre 2023 e 2025, geralmente classificando o uso de IA como aceito em algumas etapas da pesquisa, condicionado à transparência. A USP, a UNICAMP e a UFRGS, por exemplo, publicaram orientações internas que distinguem uso permitido (revisão gramatical, organização de dados, tradução) de uso problemático (geração de texto para seções substantivas sem revisão adequada, análise de dados sem supervisão).

Nos periódicos, o cenário mudou rapidamente. Revistas da Nature Publishing Group, Elsevier, Wiley e CAPES-QUALIS exigem, desde 2023, declaração explícita de uso de IA no método ou nos agradecimentos. Essa exigência é para artigos, não para projetos de pesquisa, mas sinaliza a direção do campo.

A zona cinzenta que você precisa conhecer

Há usos de IA que ninguém está proibindo e que provavelmente nunca serão proibidos: correção gramatical, formatação de referências, tradução de trechos, organização de planilhas, busca bibliográfica assistida. Ferramentas como Grammarly, DeepL e Zotero já fazem isso há anos sem que ninguém questione.

Há usos que estão claramente no campo problemático: usar IA para gerar dados que não foram coletados, usar saída de IA como análise sem qualquer revisão crítica, colocar IA como autora de artigo (o que nenhuma revista aceita).

O meio-termo, que é onde a maioria das perguntas está, inclui: usar IA para estruturar a escrita, para elaborar o primeiro rascunho de seções, para sintetizar literatura. Aqui a regulamentação é omissa no Brasil. A orientação prática é: se você usou IA de forma que impactou substantivamente o conteúdo intelectual, informe nos métodos ou nos agradecimentos. Se você só usou para revisão ortográfica, não precisa declarar.

O que esperar nos próximos anos

A pressão internacional por regulamentação de IA em ciência é crescente. O UNESCO Recommendation on the Ethics of AI (2021) e o relatório do GESDA sobre ciência aberta sinalizam que as agências de fomento de todo o mundo caminham para políticas mais explícitas sobre o tema.

No Brasil, o CNPq e a CAPES têm participado de discussões internacionais sobre isso. O MCTI publicou em 2024 a Estratégia Brasileira de IA (EBIA), que menciona ciência como área prioritária, mas sem detalhar normas para pesquisadores individuais.

A tendência mais provável é que, nos próximos 2 a 3 anos, as chamadas de projetos do CNPq comecem a incluir campos específicos sobre uso de IA ou exijam declaração de conformidade com futuras diretrizes.

O que isso muda para você hoje

Não muda muito no dia a dia, mas muda na postura.

Se você usa IA no seu trabalho de pesquisa, a prática mais defensável é: usar com clareza, documentar onde e como foi usado, não substituir o julgamento científico pela saída da ferramenta, e estar pronto para explicar suas escolhas metodológicas para um avaliador que pergunte.

Não existe hoje, no Brasil, uma norma CNPq que te puna por usar IA de forma responsável. Mas existe a obrigação geral de integridade científica, que se aplica a tudo, incluindo IA.

Faz sentido? A regulamentação formal vai chegar. Mas o padrão ético já está estabelecido, e ele é mais exigente do que qualquer norma escrita.

Para quem quer aprofundar a discussão sobre uso ético de IA na academia, veja a página de recursos e os posts do pilar de IA e Ética aqui no blog.

Três casos práticos para entender os limites

Às vezes a teoria fica abstrata demais. Então vamos a casos concretos que ilustram o que está em jogo:

Caso 1: Uso de IA para revisão de escrita em artigo financiado pelo CNPq

Um pesquisador financia sua pesquisa com bolsa de produtividade do CNPq. Ao escrever o artigo, usa o ChatGPT para corrigir erros gramaticais e sugerir reformulações de parágrafos. O conteúdo intelectual, as análises e as conclusões são dele.

Esse uso está dentro do que qualquer código de integridade científica considera aceitável. É equivalente a contratar um revisor de texto. Não há obrigação de declarar, embora declarar seja prática crescente.

Caso 2: Uso de IA para gerar seção de revisão de literatura

O mesmo pesquisador, sob pressão de prazo, pede ao ChatGPT para gerar um parágrafo de revisão de literatura sobre um tema específico. O texto parece coerente, ele revisa rapidamente e inclui no artigo sem verificar cada afirmação.

Esse uso é problemático por dois motivos: primeiro, modelos de linguagem alucinam referências, o que pode resultar em citação de artigos que não existem. Segundo, a análise não passou pelo julgamento crítico do pesquisador. Se o artigo for aprovado com uma referência falsa, as consequências são para o pesquisador, não para a IA.

Caso 3: Análise qualitativa assistida por IA

Uma pesquisadora usa software de análise qualitativa com IA integrada para sugerir categorias em seus dados de entrevista. Ela revisa cada categoria, ajusta, exclui o que não faz sentido e constrói a análise final com base nas sugestões do software.

Esse uso é defensável e, em muitos contextos, constitui uma metodologia válida. A distinção importante é que a pesquisadora é quem toma as decisões analíticas, usando a IA como ferramenta de organização inicial.

Como documentar o uso de IA no seu projeto CNPq

Enquanto a regulamentação formal não chegou, a forma mais robusta de se proteger é documentar. Aqui vai um modelo simples de como fazer isso:

No relatório parcial ou final de atividades da bolsa, acrescente uma seção de “Ferramentas utilizadas” com algo como:

“Nesta etapa, utilizou-se inteligência artificial generativa (especificar qual modelo/ferramenta) como apoio à revisão gramatical dos manuscritos e para organização inicial de dados bibliográficos. Todas as análises, interpretações e conclusões são de responsabilidade dos autores.”

Esse registro não garante aprovação de nenhuma agência, porque a regulamentação não exige nem proíbe. Mas cria evidência documentada de que você agiu com transparência.

O debate que precisa acontecer mais rápido

Aqui entra minha posição pessoal, porque acho importante ser clara sobre onde estou nessa conversa.

A falta de regulamentação específica sobre IA no CNPq não é um sinal de que a questão não importa. É um sinal de que as agências de fomento no Brasil estão correndo atrás de um campo que mudou muito rápido.

O problema com a ausência de norma é que ela transfere a responsabilidade totalmente para o pesquisador, num momento em que os pesquisadores têm pouca orientação sobre o que é adequado. Isso cria um ambiente de incerteza que não serve a ninguém.

O que eu gostaria de ver: um conjunto claro de diretrizes do CNPq e da CAPES que distinga usos permitidos de usos problemáticos, com base em critérios de integridade científica, não em proibições genéricas. Isso permitiria que pesquisadores usassem IA de forma responsável sem o medo de estar infringindo uma norma que nem existe formalmente.

Essa é a posição que defendo quando falo sobre IA e ética na pesquisa acadêmica. A ferramenta não é o problema. A ausência de orientação clara é.

Perguntas frequentes

O CNPq proíbe o uso de IA em pesquisas financiadas?
Não há proibição explícita. O CNPq não publicou uma política formal de vedação ao uso de IA. O que existe são diretrizes gerais de integridade científica que se aplicam ao uso de qualquer ferramenta, incluindo IA. A responsabilidade pelo conteúdo e pelos resultados da pesquisa permanece com o pesquisador.
Preciso declarar no projeto que usei IA?
Não há obrigatoriedade formal pelo CNPq até a data deste post. Mas a tendência das agências internacionais e de periódicos científicos é exigir essa declaração. Como boa prática, informe no método ou nos agradecimentos quando IA foi utilizada de forma substantiva na pesquisa.
O que acontece se eu usar IA em projeto CNPq sem declarar?
A ausência de uma norma específica não elimina o risco. Se o uso de IA comprometer a integridade da pesquisa (por exemplo, dados fabricados, análise irresponsável), as sanções de integridade científica se aplicam normalmente. O risco jurídico e reputacional existe mesmo sem regulamentação explícita sobre IA.
<