7 Coisas Que Saber Antes de Usar IA na Pós-Graduação
O que ninguém te conta antes de usar ferramentas de IA no mestrado e doutorado: limites éticos, riscos reais, o que as políticas institucionais dizem e como usar sem se prejudicar.
O que ninguém te diz antes de você usar IA na pós-graduação
Vamos lá. As ferramentas de inteligência artificial são parte da paisagem da pesquisa acadêmica hoje. Isso não é tendência: é realidade. Pesquisadores usam IA para revisão de texto, busca de referências, análise de dados, síntese de literatura, geração de hipóteses e muito mais.
O problema é que a maioria das pessoas que começa a usar IA na pós-graduação não recebe orientação sobre como fazê-lo com inteligência. Recebe entusiasmo ou paranoia, mas raramente uma perspectiva equilibrada baseada em uso real.
O que segue são as coisas que considero essenciais saber antes de integrar IA ao seu trabalho de pesquisa.
1. A IA não sabe quando está errada
Esse é o risco mais subestimado. Grandes modelos de linguagem como ChatGPT, Claude e Gemini são projetados para produzir texto coerente e plausível. O problema é que “plausível” não é o mesmo que “correto”. A IA pode afirmar com total confiança uma referência que não existe, um dado que nunca foi publicado ou uma metodologia que não se aplica ao seu contexto.
Isso tem nome: alucinação. E acontece com frequência suficiente para ser um risco real, especialmente quando você está em território que ainda não domina completamente.
A única defesa eficaz é verificar tudo que a IA afirma. Se ela cita um artigo, confirme que o artigo existe e que diz o que ela disse que dizia. Se sugere uma metodologia, pesquise fontes primárias sobre ela antes de adotar.
2. A IA não conhece seu campo tão bem quanto você pensa
Os modelos de linguagem têm cobertura ampla, mas não profundidade uniforme. Áreas mais bem representadas na internet em inglês têm melhor cobertura. Áreas menores, pesquisa em português, ou temáticas muito específicas podem ser território onde a IA tem lacunas sérias.
Isso significa que você não pode delegar à IA a responsabilidade de dizer o que é estado da arte na sua área. Ela pode ajudar a organizar o que você já sabe, a formular perguntas, a identificar caminhos de busca. Mas a curadoria do conhecimento específico da sua área precisa ser sua.
3. As políticas das instituições ainda estão se formando
Quando você começa o mestrado ou doutorado em 2026, provavelmente não vai encontrar um regulamento claro sobre uso de IA. Isso não é permissão implícita. É lacuna que está sendo preenchida.
O que existe de forma consolidada é a proibição de plágio, que algumas instituições já expandiram explicitamente para incluir texto gerado por IA submetido como produção própria. Outros programas ainda não chegaram lá formalmente.
A postura mais segura: pergunte ao seu orientador sobre o uso de IA no seu projeto. Diga o que você está pensando em usar e para que. Essa conversa tira você de uma zona cinzenta e coloca o uso de IA dentro de um acordo explícito com quem vai avaliar seu trabalho.
4. Periódicos internacionais já têm políticas explícitas
Se o seu objetivo é publicar em periódicos internacionais, leia a política de IA de cada revista antes de submeter. As políticas variam bastante.
Algumas revistas proíbem listar IA como coautor (o que é a posição mais razoável, dado que IA não tem responsabilidade pelos resultados). Outras exigem declaração de que você usou IA e para que fins específicos. Outras ainda proíbem o uso de IA generativa em qualquer parte do manuscrito.
Submeter sem ler a política e ter o artigo rejeitado ou ter que reescrever seções inteiras é um retrabalho completamente evitável.
5. O risco de dependência é real
Esse é o ponto mais difícil de medir no começo. Você usa IA para escrever rascunhos, a IA entrega texto ok, você revisa e entrega. Parece funcionar. O problema é que, ao longo do tempo, a sua competência de escrita pode não se desenvolver da forma que precisaria.
Mestrandas que aprendem a escrever escrevendo, cometendo erros e corrigindo com feedback, geralmente chegam ao final do mestrado como escritoras muito melhores do que quando começaram. Mestrandas que terceirizam boa parte da escrita para a IA podem chegar ao final com menos desenvolvimento do que poderiam ter.
O desenvolvimento da sua voz como pesquisadora, da sua capacidade de argumentar em texto, de estruturar ideias com precisão, isso acontece quando você escreve, não quando você revisa o que a IA escreveu.
6. A confidencialidade dos seus dados é sua responsabilidade
Você não deve inserir dados de participantes de pesquisa, transcrições de entrevistas, informações confidenciais de instituições ou quaisquer dados protegidos em ferramentas de IA que usam esses inputs para treinamento.
A maioria dos serviços gratuitos de IA usa as conversas dos usuários para aprimorar os modelos. Isso significa que o que você escreve pode, em alguma versão futura, influenciar as respostas que a ferramenta dá para outras pessoas.
Para pesquisas com dados sensíveis, verifique os termos de uso da ferramenta que você quer usar. Alguns serviços empresariais oferecem opções que não usam dados para treinamento, mas isso precisa estar contratado explicitamente.
7. IA não substitui orientação, não substitui leitura, não substitui o seu julgamento
A IA é uma ferramenta de aceleração e de apoio. Ela não substitui a leitura dos artigos da sua área, não substitui as conversas com seu orientador, não substitui o trabalho de pensar com profundidade sobre o seu problema de pesquisa.
A pesquisadora que usa IA com inteligência é aquela que mantém o controle intelectual do seu trabalho. Ela usa a ferramenta para acelerar tarefas específicas, não para pensar por ela.
Isso exige que você tenha clareza sobre o que você está tentando descobrir antes de perguntar qualquer coisa para uma IA. Entrar sem direção e pedir para a IA “me explique minha área de pesquisa” é perder a oportunidade de construir seu próprio entendimento.
Como usar IA na pós-graduação de forma que você não vai se arrepender depois
A síntese prática: use IA para coisas que não exigem seu julgamento especializado (formatação, checagem ortográfica, busca de palavras-chave, sugestão de estrutura de parágrafo). Mantenha para você as decisões que definem a qualidade intelectual do trabalho (escolha da pergunta, argumento, interpretação dos dados, conclusões).
E sempre, sempre verifique o que a IA produz. Não por paranoia, mas porque você é responsável pelo que assina.
O que os orientadores pensam sobre o uso de IA, de verdade
A maioria dos orientadores com quem converso tem uma posição nuançada: não são nem proibicionistas nem entusiastas ingênuos. O que eles pedem, quando pedem alguma coisa, é transparência.
“Me diz o que você usou” é muito mais fácil de lidar do que descobrir depois. E os melhores orientadores entendem que a questão não é se você usou uma ferramenta, mas se você sabe o que está fazendo com o que a ferramenta produziu.
Se o seu orientador é declaradamente contra o uso de IA, essa conversa também precisa acontecer. Não para convencê-lo do contrário, mas para saber com clareza quais são os limites do seu trabalho conjunto e operar dentro deles.
Para além do medo e do entusiasmo
O momento atual é de transição. As normas estão sendo construídas em tempo real, e você vai navegar esse período como parte da primeira geração de pesquisadores que fez mestrado ou doutorado com essas ferramentas amplamente disponíveis.
Isso é uma posição interessante, não apenas desafiadora. Como você usa IA na sua pesquisa vai fazer parte da sua história de formação. Usar com clareza de propósito, com honestidade intelectual e com senso crítico é o que transforma essa ferramenta em algo que te serve, não em algo que te substitui.
Para aprofundar a discussão sobre ética no uso de IA na ciência, explore outros posts sobre IA e ética ou veja o Método V.O.E. para entender como estruturo a produção acadêmica com qualidade e integridade.