Erros fatais com IA na escrita acadêmica: o que evitar
Conheça os erros mais graves no uso de IA para escrever dissertações e artigos: prompts que comprometem sua autoria, dependência excessiva e o que pode custar sua aprovação.
O ChatGPT não vai reprovar sua dissertação. Você vai.
Olha só: o número de pesquisadores usando alguma forma de IA na escrita acadêmica cresceu de forma expressiva nos últimos anos. Isso é um fato, não um julgamento.
O problema não é usar IA. O problema é usar IA de forma que compromete a integridade do trabalho ou que produz resultados que parecem bons na superfície mas são frágeis por dentro.
Esse post é sobre os erros que vejo com mais frequência e que têm consequências reais: na qualidade do trabalho, na defesa, na relação com o orientador, e na sua própria relação com o que você produziu.
Erro 1: pedir para a IA escrever o que você deveria pensar
Esse é o erro mais grave e o mais comum.
“Escreva a introdução da minha dissertação sobre burnout em pesquisadores de pós-graduação.”
O ChatGPT vai escrever. Vai ser fluente, razoavelmente organizado, vai mencionar conceitos relevantes. E vai ser inteiramente sem contexto específico, sem a sua perspectiva, sem os elementos que tornam a sua pesquisa diferente de qualquer outra pesquisa sobre burnout.
Mais sério: você vai sentar na frente da banca sem saber explicar por que escreveu o que escreveu. Porque você não escreveu. Você aceitou.
A introdução de uma dissertação é onde você estabelece a relevância do seu problema, justifica a sua abordagem e anuncia o que vai fazer. Isso exige que você tenha uma posição. Que você tenha lido. Que você tenha pensado. IA não pensa por você; ela gera texto estatisticamente plausível sobre o que você pediu.
Erro 2: usar IA para a revisão de literatura sem ler os artigos
“Faça uma revisão de literatura sobre X.”
Ferramentas como o ChatGPT vão gerar um texto que parece uma revisão de literatura. Vai citar autores. Vai organizar por subtema. Vai parecer completo.
O problema: parte das referências pode não existir. Parte das referências existe, mas o que foi dito sobre elas pode não ser o que os autores realmente disseram. E você vai estar sentado diante de uma banca que conhece essa literatura melhor do que você, porque eles a leram e você não.
Ferramentas como Elicit, Consensus e ResearchRabbit ajudam a localizar artigos e a extrair informações específicas de forma mais confiável do que o ChatGPT. Mas o trabalho de leitura, síntese e interpretação ainda é seu.
Revisão de literatura gerada por IA sem leitura real não é revisão de literatura. É um risco.
Erro 3: aceitar a primeira resposta sem questionar
IA generativa produz texto coerente com facilidade. Coerência não é correção. Plausibilidade não é precisão.
Um prompt mais cuidadoso produz resultado melhor, mas ainda assim a saída da IA precisa ser verificada, questionada e adaptada. Especialmente quando envolve afirmações sobre a literatura, dados específicos ou argumentos metodológicos.
Pesquisadores que aceitam a primeira resposta da IA sem revisão crítica acumulam imprecisões que se somam. Um parágrafo com uma afirmação ligeiramente errada, uma citação com os dados invertidos, um argumento que contradiz outra parte do texto. A IA não vê o texto como um todo coeso; ela responde cada prompt de forma relativamente independente.
Erro 4: prompts genéricos que geram texto genérico
“Me ajude a escrever sobre metodologia qualitativa para minha dissertação.”
O que você vai receber é texto sobre metodologia qualitativa em geral. Não sobre a sua pesquisa. Não sobre a justificativa específica das suas escolhas. Não sobre como a abordagem qualitativa responde à sua pergunta de pesquisa específica.
Prompts que funcionam têm contexto. Eles incluem: qual é a sua pergunta de pesquisa, qual o contexto do seu estudo, o que você já escreveu, o que você quer alcançar com aquele trecho específico.
A diferença entre um prompt fraco e um prompt contextualizado é a diferença entre texto genérico que você vai passar horas tentando adaptar, e um rascunho que já parte do seu contexto específico.
Erro 5: deixar a IA escolher as referências
“Sugira referências para embasar esse argumento.”
Já mencionei o problema das referências inventadas. Mas há um segundo problema: mesmo quando a IA sugere referências reais, ela não sabe quais são as referências que fazem sentido no contexto específico da sua área, da sua banca, do seu orientador.
Quais autores são centrais na sua área? Quais debates estão ativos? Quais referências seu orientador esperaria ver? Isso não é algo que a IA pode saber com precisão. Você precisa construir esse mapa de referências a partir da sua imersão na literatura.
Usar IA para explorar “o que existe sobre X” é útil para um levantamento inicial. Usar IA como árbitro de quais referências incluir no seu trabalho final é uma delegação que você vai se arrepender.
Erro 6: esconder o uso de IA do orientador
Esse erro não é sobre qualidade do texto. É sobre a relação de orientação.
Se você usou IA extensivamente e não mencionou para o orientador, você cria uma situação de assimetria de informação que pode complicar o processo. O orientador vai orientar com base no trabalho que vê, mas o trabalho não vai refletir seu desenvolvimento real. Quando o orientador perceber, e muitos percebem, a relação fica fragilizada.
Conversa honesta com o orientador sobre como você está usando IA é parte da integridade do processo. Não precisa ser uma confissão dramática. É só transparência sobre o processo de trabalho.
Erro 7: usar IA para responder perguntas que você deveria saber responder
Há uma diferença entre usar IA para aprender algo que você não sabe e usar IA para simular que você sabe algo que não sabe.
O primeiro uso é legítimo e produtivo. “Não entendo o que é normalização de resíduos. Me explica?” é uma pergunta que IA responde bem, e a resposta ajuda você a aprender.
O segundo uso cria problemas. Se você usa IA para gerar a resposta de um exercício metodológico que seu orientador pediu, sem entender a resposta que gerou, você está simulando competência que não tem. E isso eventualmente fica evidente.
Na escrita acadêmica, a longo prazo, o conhecimento que você desenvolveu valerá muito mais do que qualquer texto gerado por IA. Porque o conhecimento fica com você; o texto gerado não.
O que realmente funciona: IA como interlocutora, não como autora
A distinção que faz diferença é essa: usar IA como ferramenta de pensamento, não como substituta do pensamento.
IA funciona bem para: gerar rascunhos de partes que você já sabe o que quer dizer, mas está travado na formulação. Para revisar clareza e fluência de trechos que você escreveu. Para explorar “existe alguma perspectiva que estou negligenciando?”. Para simular perguntas que a banca pode fazer. Para traduzir rascunhos do português para o inglês (ou vice-versa) quando o conteúdo já está pronto.
IA não funciona como substituta para: a leitura dos artigos que embasam sua pesquisa. A formulação do seu problema de pesquisa. A interpretação dos seus dados. A construção do seu argumento central.
Se você consegue dizer “usei IA para X, e isso poupou tempo sem comprometer minha compreensão do trabalho”, então o uso foi adequado. Se você não consegue explicar com clareza o que a IA fez no seu trabalho, é hora de revisitar.
Para aprofundar as boas práticas, os posts sobre prompts para escrita acadêmica e sobre como usar IA sem comprometer sua autoria tratam da parte prática de como fazer isso bem.
A pergunta que você pode fazer a si mesmo a qualquer momento: “se o ChatGPT parasse de funcionar agora, eu conseguiria terminar este trabalho?” Se a resposta for sim, você está usando