IA & Ética

5 Erros Que Você Comete ao Usar IA na Pós-Graduação

Conheça os 5 erros mais comuns no uso de IA na pós-graduação e como evitá-los. Da aceitação acrítica de resultados ao risco de dependência e problemas de confidencialidade.

ia-na-pesquisa erros-ia-academia pos-graduacao ia-etica

O que ninguém te conta quando você começa a usar IA na pós

Olha só: as ferramentas de IA chegaram rápido demais para que a academia tivesse tempo de criar orientações claras sobre como usá-las. A maioria dos mestrandos e doutorandos que começa a usar IA na pesquisa não recebe nenhuma orientação estruturada — aprende por tentativa e erro, ou vendo colegas usarem.

O problema é que alguns desses erros têm consequências sérias: de retrabalho doloroso a problemas na qualificação, riscos éticos e, pior, um desenvolvimento mais lento das habilidades que você deveria estar construindo durante a pós.

Este post não é sobre paranoia com IA. É sobre usar com mais inteligência, evitando as armadilhas mais comuns.

Erro 1: Aceitar referências geradas por IA sem verificar

Esse é o erro mais perigoso, e acontece com frequência suficiente para merecer o primeiro lugar desta lista.

Grandes modelos de linguagem são treinados para produzir texto coerente e plausível. O problema é que “plausível” e “verdadeiro” não são a mesma coisa. Quando você pede a uma IA que liste artigos sobre um tema, ela pode gerar citações com autores reais, títulos verossímeis, revistas existentes, volumes e páginas coerentes — e o artigo simplesmente nunca ter sido publicado.

Isso se chama alucinação, e é uma característica estrutural desses modelos, não um bug que vai ser corrigido na próxima versão.

As consequências de usar referências inventadas na sua dissertação são sérias. A banca vai verificar, o orientador vai verificar, e o revisor do periódico onde você submeter vai verificar. Referências que não existem comprometem não apenas aquele texto, mas sua credibilidade como pesquisadora.

A única solução é verificar toda referência que a IA gerar ou sugerir. Busque o artigo no Google Scholar, no portal da Capes, ou diretamente no site da revista. Se não encontrar, não use.

Erro 2: Terceirizar o pensamento crítico

Há uma diferença importante entre usar IA para acelerar tarefas e usar IA para pensar no seu lugar.

Usar IA para reformular um parágrafo que você já escreveu, sugerir uma estrutura para organizar ideias que você já tem, ou identificar possíveis lacunas em um argumento que você elaborou — tudo isso é uso instrumental que pode ser legítimo e útil.

Usar IA para “me explica o que minha pergunta de pesquisa deveria ser” ou “escreve a discussão dos meus resultados” é diferente. Nesses casos, você está delegando os movimentos intelectuais mais importantes do trabalho para uma ferramenta que não entende o seu campo, não conhece o seu contexto, e não tem responsabilidade pelo que produz.

O problema não é apenas ético. É prático: você vai defender essa dissertação perante uma banca. As perguntas vão ser feitas para você, não para a IA. Se o pensamento crítico do trabalho não é genuinamente seu, a defesa vai expor isso.

A pergunta útil antes de delegar qualquer tarefa à IA: “Se eu usar a IA para fazer isso, estou perdendo o desenvolvimento de alguma competência que preciso ter ao final do mestrado?”

Erro 3: Colocar dados de pesquisa em ferramentas não seguras

Esse erro é menos visível, mas tem implicações éticas e potencialmente legais.

Pesquisas com participantes humanos envolvem dados que podem ser confidenciais: transcrições de entrevistas, respostas de questionários, prontuários médicos, informações sobre organizações. Quando você insere esses dados em uma ferramenta de IA como o ChatGPT gratuito, o Microsoft Copilot em certas configurações, ou qualquer outro serviço que usa os inputs dos usuários para treinamento, você está potencialmente expondo dados confidenciais.

Isso viola os termos do TCLE que os participantes assinaram. Pode violar a LGPD. E, dependendo da sua área, pode comprometer a aprovação do CEP que autorizou sua pesquisa.

A regra prática: dados identificáveis de participantes, transcrições de entrevistas, e informações confidenciais de organizações não devem ser inseridos em ferramentas de IA cujas políticas de privacidade você não leu e que não oferecem garantias explícitas de que não usam dados para treinamento. Para esse tipo de trabalho, existem opções empresariais com contratos específicos — mas precisam estar contratadas.

Erro 4: Usar IA para gerar texto sem declarar e sem revisão crítica

A discussão sobre o que constitui uso aceitável de IA na escrita acadêmica ainda está em construção, e as políticas variam muito por instituição, programa e periódico. Mas há uma linha que a maioria das políticas já cruzou: o texto que você submete como seu deve ser, de fato, resultado do seu trabalho intelectual.

Usar IA para melhorar a expressão de um texto que você já escreveu — corrigir gramática, sugerir vocabulário mais preciso, reformular frases confusas — é diferente de pedir à IA que escreva um parágrafo que você vai copiar sem revisão crítica.

O problema do segundo caso não é apenas ético. É que a IA pode produzir texto que parece acadêmico mas que simplifica demais o argumento, usa terminologia inadequada para a sua área, ou afirma coisas imprecisas com confiança. Sem revisão crítica, você assina o nome em cima de afirmações que não verificou.

E quando o texto parece bom mas está errado, é mais difícil de perceber do que quando está claramente ruim.

Erro 5: Criar dependência sem desenvolver competência

Este é o erro mais sutil e, talvez, o mais duradouro em termos de consequências.

O mestrado e o doutorado são, entre outras coisas, períodos de desenvolvimento de competências. Você aprende a ler literatura densa, a construir argumentos, a escrever com precisão, a apresentar resultados com clareza. Essas competências se desenvolvem com prática — escrevendo, revisando, recebendo feedback, escrevendo de novo.

Se você terceiriza sistematicamente a escrita para a IA, você pode chegar ao final da pós com um trabalho concluído mas com menos competências desenvolvidas do que poderia. E essas competências — de leitura, de escrita, de raciocínio crítico — são o que você vai precisar para o resto da carreira.

A IA pode ser um andaime excelente durante o processo de aprendizagem. Mas andaime é estrutura de suporte temporário — não permanente. O objetivo do andaime é que, quando ele é retirado, a construção fica em pé sozinha.

Como usar IA de forma que você não vai se arrepender

Vamos lá. O uso inteligente de IA na pós-graduação é aquele que:

Acelera tarefas que não exigem julgamento especializado: formatação, busca de palavras-chave, sugestão de estrutura, correção ortográfica e gramatical de rascunhos que você já escreveu.

Apoia processos que você controla: você já tem o argumento, a IA ajuda a expressá-lo melhor. Você já identificou as referências, a IA ajuda a formatar. Você já fez a análise, a IA ajuda a organizar o texto da discussão.

Respeita os limites éticos do seu contexto: você sabe o que a política do seu programa diz, você conversou com o orientador, você está declarando quando relevante.

E, crucialmente, não substitui o processo de pensar, ler e escrever que é o ponto central da formação.

O que fazer quando você já cometeu um desses erros

Se você se reconheceu em algum dos erros acima, a boa notícia é que nenhum deles é irreversível — especialmente se você ainda está na fase de desenvolvimento da dissertação.

Referências não verificadas podem ser checadas agora. Textos que você sabe que foram gerados por IA podem ser reescritos com a sua voz e seu argumento, usando a versão da IA como rascunho de referência, não como texto final. A conversa com o orientador sobre os limites do uso pode acontecer antes da qualificação, não depois.

O mais importante é ter clareza sobre onde você está e onde quer chegar. O mestrado e o doutorado são processos de formação — não apenas de produção de um documento. Os erros fazem parte desse processo quando reconhecidos e corrigidos com honestidade intelectual.

Para uma perspectiva mais ampla sobre IA na pesquisa acadêmica, explore o post sobre 7 coisas que saber antes de usar IA na pós-graduação e outros posts sobre IA e ética na ciência.

Perguntas frequentes

Quais são os principais erros ao usar IA na pós-graduação?
Os erros mais comuns são: aceitar sem verificar informações geradas por IA (incluindo referências que podem não existir), usar IA para substituir processos de pensamento que precisam ser desenvolvidos pelo pesquisador, inserir dados confidenciais de pesquisa em ferramentas que usam esses dados para treinamento, usar IA para gerar texto que será submetido como próprio sem declaração, e criar dependência de ferramentas sem desenvolver as competências subjacentes.
IA pode inventar referências bibliográficas?
Sim. Isso é chamado de alucinação e é um problema real e frequente nos modelos de linguagem atuais. A IA pode gerar referências com autores reais, títulos plausíveis, revistas existentes e anos coerentes — que simplesmente nunca foram publicadas. Toda referência gerada ou sugerida por IA precisa ser verificada nas fontes primárias antes de ser usada.
Usar IA na dissertação é proibido?
Não existe proibição geral, mas as políticas variam por instituição e por programa. O que é vedado universalmente é o plágio — submeter como seu texto produzido integralmente por IA sem declaração pode ser enquadrado como fraude acadêmica dependendo das normas do programa. A postura mais segura é conversar com o orientador sobre os limites do uso de IA no seu projeto específico.
<