Riscos Reais de Usar ChatGPT em Trabalhos Acadêmicos
Os riscos de usar ChatGPT em trabalhos acadêmicos: alucinações, integridade científica e como usar IA de forma responsável na pós-graduação.
O que está em jogo quando você usa ChatGPT num trabalho acadêmico
Uma orientanda me perguntou outro dia se podia usar ChatGPT para escrever a introdução da dissertação. A resposta curta é: depende. O motivo é mais interessante do que o sim/não.
O uso de modelos de linguagem como o ChatGPT em trabalhos acadêmicos é um dos temas mais mal compreendidos na pós-graduação atual. Parte da confusão vem de tratar IA como uma categoria uniforme, quando na prática há usos que apresentam risco baixo e usos que colocam em risco a integridade do trabalho, a sua reputação e, em casos extremos, o seu vínculo com o programa.
Entender quais são os riscos concretos é o que separa um uso responsável de um uso problemático.
O problema das alucinações: IA que mente com confiança
O risco mais técnico e menos discutido fora dos círculos de IA é o das alucinações. Um modelo de linguagem como o ChatGPT não tem acesso a um banco de dados de fatos verificados. Ele gera texto estatisticamente plausível com base nos padrões aprendidos durante o treinamento.
Na prática, isso significa que o ChatGPT pode gerar referências bibliográficas que parecem reais mas não existem. Autor correto, ano plausível, título coerente com a área, periódico de alto impacto. Tudo inventado. Ou parcialmente correto, que é pior porque é mais difícil de detectar.
Esse não é um bug que vai ser corrigido. É uma característica estrutural dos modelos de linguagem atuais. Eles não distinguem entre o que sabem e o que estão gerando por plausibilidade. O texto sai confiante independente de ser verdadeiro ou fabricado.
Para trabalhos acadêmicos, isso tem uma consequência direta: nenhuma referência gerada por IA deve entrar no seu trabalho sem verificação individual em base de dados como PubMed, Scopus, Web of Science ou Google Scholar. Não porque a maioria vai estar errada. Porque você não sabe quais estão erradas até verificar.
Integridade acadêmica: o que as instituições e periódicos dizem
As políticas sobre uso de IA em trabalhos acadêmicos evoluíram rapidamente desde 2022 e continuam mudando. O panorama atual é heterogêneo: algumas instituições proíbem qualquer uso não declarado, outras exigem apenas transparência sobre o que foi usado e como, outras ainda não têm política formalizada.
O mesmo vale para periódicos. Revistas de alto impacto em ciências da saúde, natureza e educação têm políticas diferentes entre si. A maioria exige declaração de uso de IA em alguma seção do manuscrito (tipicamente na seção de métodos ou em declarações dos autores). Algumas proíbem que modelos de IA sejam listados como coautores.
Para trabalhos de pós-graduação, a política relevante é a da sua instituição e, se for submeter para publicação, a do periódico de destino. O erro mais comum é assumir que o que não está explicitamente proibido está permitido. Em integridade acadêmica, a ausência de política não é autorização.
O princípio geral que emerge da maioria das diretrizes é: o pesquisador é responsável por tudo que está no trabalho. Se você usa IA para gerar texto e entrega esse texto sem verificar e sem declarar, você assume a responsabilidade por qualquer erro, fabricação ou violação que esse texto contenha.
O risco da genericidade e da perda de voz
Além dos riscos de integridade, há um risco menos visível mas que impacta a qualidade do trabalho: a genericidade.
Modelos de linguagem tendem a produzir texto que está no centro estatístico do que existe na internet sobre um tema. Isso significa que o texto gerado costuma ser correto em termos gerais, mas raro em termos de originalidade. Perde-se o argumento específico, a perspectiva analítica particular, a voz do pesquisador.
Em dissertações e teses, a banca avalia se você tem uma leitura própria do campo. Um texto que soa como síntese genérica do tema não demonstra isso. Você pode conhecer profundamente a área e ainda assim produzir um texto que parece que não conhece, se deixar o modelo de linguagem fazer o trabalho interpretativo.
Para artigos científicos, o problema se amplifica. Revisores de periódicos reconhecem padrões de texto gerado por IA. Não porque usem detectores, mas porque o texto tem características que humanos com experiência na área identificam: fluência sem substância, afirmações consensuais sem profundidade, ausência das tensões e nuances que especialistas no campo sabem que existem.
O que os detectores de IA conseguem e não conseguem fazer
Ferramentas como Turnitin (na versão mais recente), Copyleaks e outras começaram a incorporar detecção de texto gerado por IA. Mas a precisão dessas ferramentas é questionada por pesquisadores da área.
Falsos positivos são um problema real. Texto escrito de forma clara, com estrutura consistente e vocabulário técnico pode ser classificado como “provavelmente gerado por IA” mesmo sendo completamente humano. Isso já causou problemas para estudantes e pesquisadores que escrevem bem.
O ponto principal não é “será que vão me pegar”. É que a verificação da validade científica do trabalho é responsabilidade sua. Se o detector acusar errado, você pode contestar. Se o trabalho contém referências fabricadas que passaram pelos detectores, o problema é mais sério.
Usos de IA que apresentam risco baixo em contexto acadêmico
Nem todo uso de IA em trabalhos acadêmicos é problemático. Há usos que apresentam risco baixo quando feitos com transparência.
Revisão gramatical e estilística. Usar IA para revisar clareza, coesão e gramática do texto que você escreveu é diferente de usar IA para gerar o texto. O conteúdo intelectual permanece seu.
Tradução assistida. Usar IA para tradução de textos em língua estrangeira que você vai ler e interpretar é prática comum e geralmente aceita.
Síntese de documentos que você já leu. Usar IA para resumir artigos que você já leu e cujo conteúdo você entende pode agilizar a organização do material sem substituir o trabalho interpretativo.
Estruturação de ideias. Usar IA para organizar um esboço de texto a partir de ideias que você formulou é diferente de pedir para a IA formular as ideias.
Em todos esses casos, a transparência continua sendo necessária quando a política da sua instituição exige declaração de uso de IA.
Como o uso responsável de IA se encaixa na pesquisa
O Método V.O.E. (Velocidade, Organização, Execução Inteligente) pressupõe que a pesquisadora faz o trabalho intelectual de visualizar e organizar antes de escrever. Quando você usa IA para substituir essas etapas, você perde o que importa no processo: a construção da sua própria compreensão do campo.
A IA pode acelerar partes do trabalho operacional. Não pode fazer por você o trabalho de pensar a pesquisa. E quando você tenta usar IA no lugar desse trabalho, o que aparece na tela soa exatamente como isso: texto de quem não fez o trabalho de pensar.
Fechamento
Os riscos de usar ChatGPT em trabalhos acadêmicos são concretos e desiguais. Alguns usos são problemáticos por razões de integridade. Outros são problemáticos por razões de qualidade. Alguns usos são razoáveis quando feitos com transparência.
A pergunta que vale fazer antes de qualquer uso de IA num trabalho acadêmico não é “está proibido?”. É “esse uso substitui o meu pensamento ou apoia ele?”. A diferença importa para a qualidade do trabalho e para a sua formação como pesquisadora.
Faz sentido?
Para aprofundar o uso ético de ferramentas de IA na pós-graduação, o Método V.O.E. tem mais contexto sobre como organizar o processo de pesquisa. E nos recursos disponíveis você encontra materiais práticos de apoio à escrita acadêmica.
O estado atual da regulamentação no Brasil
No Brasil, o debate sobre uso de IA em contextos educacionais e científicos ainda está se consolidando. O CNPq, a CAPES e a maioria das universidades federais não têm normativas específicas publicadas sobre o uso de ferramentas de IA generativa em pesquisa e produção acadêmica, a partir do que se sabe até meados de 2026.
Isso não é autorização tácita. É lacuna regulatória que coloca a responsabilidade diretamente no pesquisador e na instituição. Alguns programas de pós-graduação já publicaram orientações próprias, e outros estão em processo de construção de diretrizes.
Se você não sabe qual é a política do seu programa, a resposta mais segura é perguntar diretamente à coordenação antes de usar qualquer ferramenta de IA de forma mais ampla no seu trabalho.
O que muda quando o periódico tem política clara
Quando você está escrevendo um artigo para submissão, a política do periódico é mais relevante do que a política da sua instituição, porque é o periódico que decide se publica.
A maioria dos periódicos de alto impacto em ciências da saúde e natureza adotou políticas de declaração obrigatória. A ICMJE (International Committee of Medical Journal Editors), que orienta periódicos médicos, e o COPE (Committee on Publication Ethics) publicaram diretrizes que muitos editores seguem. O ponto central dessas diretrizes é que IA não pode ser listada como autora e que o uso deve ser declarado na seção de métodos.
Antes de submeter qualquer manuscrito, leia as instruções aos autores do periódico com atenção específica para políticas sobre uso de IA. Essa informação está geralmente na seção de ética ou de integridade editorial.
Tabela: riscos por tipo de uso
| Tipo de uso | Risco de integridade | Risco de qualidade |
|---|---|---|
| Gerar texto para entrega sem declaração | Alto | Alto |
| Gerar referências sem verificação | Alto | Alto |
| Revisão gramatical do próprio texto | Baixo (com declaração) | Baixo |
| Síntese de artigos já lidos | Baixo (com declaração) | Médio |
| Tradução assistida | Baixo (com declaração) | Baixo |
| Esboço de estrutura a partir de ideias próprias | Médio | Médio |
Esta tabela resume o raciocínio, mas não substitui a leitura das políticas específicas da sua instituição e periódico.
Perguntas frequentes
ChatGPT pode ser usado em trabalhos acadêmicos sem ser considerado plágio?
ChatGPT inventa referências bibliográficas?
Quais são os principais riscos de usar ChatGPT em pesquisa científica?
Leia também
Receba estratégias de escrita acadêmica direto no seu feed
Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.