Quais Ferramentas de IA São Permitidas na Academia?
Saiba quais ferramentas de inteligência artificial são permitidas na academia, como usar com ética e transparência e o que configura uso inadequado segundo as diretrizes vigentes.
A pergunta que todo pesquisador está fazendo agora
Vamos lá. Se você está na academia hoje, a pergunta já surgiu: o que eu posso usar, o que é proibido e onde está a linha?
A resposta honesta é que essa linha ainda está sendo desenhada. Políticas institucionais foram escritas às pressas em 2023 e 2024, e muitas ainda estão sendo revisadas. Periódicos têm políticas diferentes entre si. Orientadores têm opiniões diferentes entre si. E você, no meio disso, precisa tomar decisões sobre como trabalhar.
O que dá para fazer agora é entender os princípios que estão por trás das diretrizes, não apenas as regras em si. Assim, quando você se deparar com uma situação nova que nenhuma regra específica cobriu ainda, vai saber raciocinar sobre ela.
O princípio central: autoria e responsabilidade
Toda discussão sobre IA na academia começa e termina num ponto: o pesquisador é o responsável pelo que assina.
Isso significa que se você usa uma ferramenta de IA para gerar texto, e esse texto vai para um trabalho com seu nome, você assume a responsabilidade por cada afirmação feita nesse texto. Se houver erros factuais, dados fabricados (as chamadas “alucinações” de IA), argumentos inconsistentes ou problemas metodológicos, isso cai sobre você. A ferramenta não tem nome na lista de autores.
Esse princípio não é novo na ciência. Quando você cita um artigo, você assume que verificou o argumento. Quando você usa um software de análise, você assume que compreende o que ele faz. Com IA generativa, o mesmo se aplica: você usa, você verifica, você assume.
Quais ferramentas são aceitas sem grandes polêmicas
Algumas categorias de ferramentas têm aceitação ampla na comunidade científica, porque não geram conteúdo textual original que você vai assinar.
Gerenciadores de referências com recursos de IA: Zotero, Mendeley e EndNote têm recursos baseados em IA para sugestão de palavras-chave, detecção de duplicatas e organização. São ferramentas de suporte ao processo, não de geração de conteúdo.
Ferramentas de descoberta de literatura: Elicit, Semantic Scholar, Research Rabbit, Connected Papers e similares usam IA para mapear literatura relevante, identificar conexões entre artigos e sugerir referências. São muito úteis na fase de levantamento bibliográfico. Qualquer referência sugerida por essas ferramentas precisa ser verificada diretamente na fonte antes de citar.
Revisores gramaticais e de estilo: Grammarly, LanguageTool e similares são aceitos sem questionamento, tanto para inglês quanto para português. Eles corrigem gramática, pontuação, clareza e coesão, mas não alteram o conteúdo ou a argumentação.
Tradutores assistidos por IA: DeepL e Google Translate para auxiliar na compreensão de artigos em outros idiomas são práticas comuns. Para tradução de trechos que vão para o texto publicado, é importante verificar se a tradução preserva o sentido exato do original.
Ferramentas de análise de dados: recursos de IA embutidos em softwares como R, Python, SPSS e similares para análise estatística ou identificação de padrões são ferramentas metodológicas legítimas, desde que o pesquisador compreenda o que está fazendo e descreva os métodos adequadamente.
Onde começa a zona cinzenta
A zona cinzenta começa quando a IA entra na produção do texto que vai ser lido como contribuição intelectual do pesquisador.
Usar ChatGPT para ter uma visão geral inicial de um tema que você não conhece bem? Muitos pesquisadores fazem isso como ponto de partida, desde que não parem por aí. A IA pode dar uma orientação inicial, mas não pode ser sua fonte. Verifique tudo com a literatura primária.
Usar IA para organizar um esboço de ideias que você já desenvolveu? Razoável, desde que você seja quem desenvolve as ideias e a ferramenta seja usada como suporte de organização.
Usar IA para melhorar a clareza de um parágrafo que você escreveu, preservando suas ideias e apenas ajustando a expressão? Muitos programas e editoras aceitam isso com declaração.
Usar IA para gerar um parágrafo inteiro sobre um tema e inseri-lo diretamente no trabalho? Aqui está o problema. Você não verificou cada afirmação, não compreende completamente de onde vem cada argumento, e está assinando como seu algo que não foi produzido intelectualmente por você.
O que configura desonestidade acadêmica com IA
A maioria das políticas institucionais convergem em alguns pontos.
Usar IA para gerar texto que vai para o trabalho final sem declaração é considerado desonestidade acadêmica, equivalente ao plágio em muitos regulamentos. Não é que o texto foi copiado de outro humano; é que você apresentou como sua a produção intelectual de outro agente.
Usar IA para fabricar referências bibliográficas é grave. Isso já aconteceu em artigos publicados, onde modelos de linguagem inventaram referências com títulos, autores e periódicos plausíveis, mas que simplesmente não existem. Citar uma referência que não existe é falsificação.
Usar IA para fazer revisões de literatura sem verificar as fontes primárias é problemático. Resumos gerados por IA podem distorcer o conteúdo dos artigos, selecionar aspectos de forma enviesada ou omitir nuances importantes.
Como declarar o uso de IA de forma transparente
Se você usou IA de alguma forma no seu trabalho, declare. A transparência protege você e protege a integridade do registro científico.
A forma da declaração varia. Alguns periódicos têm campos específicos para isso. Alguns programas de pós-graduação têm formulários. Na ausência de um formato específico, uma nota na seção de metodologia ou agradecimentos funciona: “Para revisão gramatical e de clareza do texto em inglês, foi utilizado [nome da ferramenta]. Todo o conteúdo foi escrito pelos autores e revisado após o uso da ferramenta.”
Seja específico sobre o que foi usado e para qual finalidade. Uma declaração genérica como “usamos IA” não informa nada útil ao leitor.
O que está por vir: como as políticas estão evoluindo
Em 2024 e 2025, a maioria das grandes editoras científicas (Springer, Elsevier, Nature, Science) publicou ou atualizou suas políticas sobre IA. O consenso que está emergindo é que IA não pode ser listada como autora, que o uso deve ser declarado, e que a responsabilidade pelo conteúdo é sempre do pesquisador humano.
Programas de pós-graduação brasileiros estão seguindo em ritmos diferentes. Alguns ainda não têm política formalizada. Outros já incluíram cláusulas nos regulamentos.
O que isso significa para você? Verifique sempre a política vigente da sua instituição, do periódico para o qual você está submetendo e do evento em que vai apresentar. E se não houver política explícita, adote o padrão mais conservador: declare o que usou, descreva como usou e garanta que você revisou e compreende cada parte do conteúdo final.
A questão real por trás de tudo isso
Faz sentido a razão pela qual essas regras existem? A academia produz conhecimento que vai influenciar decisões, tratamentos, políticas públicas, formação de novas gerações. A integridade desse processo depende de que quem assina o trabalho realmente comprenda e responda pelo que está nele.
A IA pode ser uma ferramenta poderosa no processo de pesquisa. Mas ela não substitui o julgamento do pesquisador, a verificação rigorosa das fontes, a compreensão profunda dos dados e a responsabilidade pelo que é afirmado. Usada com clareza sobre esses limites, é uma aliada. Usada para atalhar esse processo, é um risco para você e para o campo.
Casos concretos para você pensar
Para tornar isso mais palpável, veja algumas situações comuns e como analisá-las:
Situação 1: Você usou o ChatGPT para entender rapidamente como funciona a análise de componentes principais antes de ler os artigos sobre o tema. Isso é pesquisa preliminar. Use a IA como orientação inicial, verifique nas fontes primárias, e não cite o ChatGPT como referência.
Situação 2: Você pediu ao Claude que revisasse a introdução do seu artigo e sugerisse ajustes de clareza. Você leu as sugestões, aceitou algumas, recusou outras, e reescreveu os trechos na sua voz. Isso pode ser declarado como revisão assistida por IA, dependendo do quanto o texto final se distancia da sua versão original.
Situação 3: Você pediu ao ChatGPT que escrevesse a seção de metodologia do seu artigo com base em suas notas. O texto gerado foi copiado com pequenas edições. Isso configura desonestidade acadêmica na maioria das políticas vigentes.
Situação 4: Você usou o Elicit para identificar os principais artigos sobre seu tema e depois leu cada um deles integralmente antes de citar. Isso é uso legítimo de ferramenta de descoberta de literatura, sem necessidade de declaração especial na maioria dos contextos.
Esses casos não são exaustivos, mas ilustram a lógica: o que importa é se você compreende e responde pelo conteúdo do trabalho.
Perguntas frequentes
É permitido usar ChatGPT ou outros geradores de texto em trabalhos acadêmicos?
Como declarar o uso de IA em um trabalho acadêmico?
Ferramentas de IA para pesquisa bibliográfica são permitidas?
Leia também
Receba estratégias de escrita acadêmica direto no seu feed
Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.