IA & Ética

ChatGPT na escrita acadêmica: o que pode e o que não pode

Usar ChatGPT em dissertação ou artigo científico é plágio? Entenda os limites éticos, o que dizem as universidades e como usar IA sem se prejudicar.

chatgpt ia escrita-academica etica pos-graduacao

A pergunta que todo pós-graduando está fazendo, mas poucos respondem direito

Vamos lá. Você usa ChatGPT. Eu sei, você sabe, seu orientador provavelmente suspeita. E a questão que paira não é “vou usar ou não vou?” porque na prática já está resolvida. A questão real é: até onde posso ir sem me prejudicar?

Esse é um debate que a academia brasileira está tendo agora, de verdade. Universidades estão publicando diretrizes, periódicos estão reformulando políticas de submissão, e o CNPq publicou em 2026 uma portaria específica sobre integridade científica e uso de IA generativa. Não é mais território cinzento. As linhas estão sendo traçadas.

O que falta é alguém explicar essas linhas de forma clara, sem hipocrisia e sem terrorismo. É exatamente isso que a gente vai fazer aqui.

O que o ChatGPT faz, de fato, quando você pede para “escrever”

Antes de falar em limites, precisa entender com o que você está lidando.

O ChatGPT é um modelo de linguagem. Ele prevê qual palavra vem depois da outra com base em padrões aprendidos de bilhões de textos. Ele não raciocina, não pesquisa, não tem acesso ao seu campo de estudo de forma atualizada, e não se responsabiliza pelo que produz.

Isso significa algumas coisas práticas que você precisa internalizar:

Primeiro, ele inventa referências. Títulos de artigos, nomes de autores, DOIs, anos de publicação. Ele produz citações com aparência perfeita que simplesmente não existem. Isso não é “erro”, é a natureza do sistema. Se você usar uma referência gerada pelo ChatGPT sem verificar, você está incluindo uma fonte falsa no seu trabalho científico. Isso tem nome: fabricação de dados.

Segundo, ele não conhece sua pesquisa. O ChatGPT não sabe o que você coletou em campo, não leu as entrevistas que você fez, não analisou os dados que você gerou. Quando ele “escreve sua dissertação”, ele está produzindo um texto genérico sobre o tema, não sobre a sua pesquisa específica.

Terceiro, ele não é coautor. A IA não assina trabalhos, não assume responsabilidade intelectual, não pode ser responsabilizada por erros. Quem assina é você. E quando você assina, está declarando que o conteúdo é produção intelectual sua.

Entender isso muda a pergunta de “é ético usar?” para “para o que faz sentido usar?”.

O que pode: usos legítimos e amplamente aceitos

Olha só, existem formas de usar o ChatGPT que não só são aceitáveis como são estrategicamente inteligentes para quem quer escrever melhor e mais rápido.

Organização de ideias. Você fez um brain dump com tudo que precisa colocar em uma seção. Está com um bloco de anotações confuso. Pedir ao ChatGPT para identificar os temas principais ali, agrupar por categoria ou sugerir uma ordem lógica é uma forma de usar a ferramenta como assistente de organização, não como gerador de conteúdo.

Revisão gramatical e de clareza. Você escreveu um parágrafo e quer saber se está claro, se tem problemas de concordância, se a frase está truncada. Isso é equivalente a usar um corretor ortográfico avançado, só que mais sofisticado.

Reformulação de trechos seus. Você escreveu, mas o texto ficou confuso ou repetitivo. Pedir ao ChatGPT para reescrever o trecho de forma mais clara, a partir do que você já produziu, é diferente de pedir para ele criar do zero. O conteúdo intelectual continua sendo seu.

Estruturação de seções. “Me dê 5 formas diferentes de organizar uma revisão de literatura sobre X” é uma pergunta válida que usa a ferramenta como interlocutor, não como escritor.

Tradução assistida. Para quem está escrevendo em inglês ou precisa adaptar um resumo para outro idioma, a IA é uma ferramenta de apoio razoável, desde que você revise o resultado com atenção ao vocabulário técnico da sua área.

Em todos esses casos, o raciocínio é seu. A análise é sua. Os dados são seus. A IA entra como ferramenta auxiliar, não como produtora de conhecimento.

O que não pode: onde a linha está

Aqui não tem meio-termo. Existem usos que configuram desonestidade acadêmica, independente do que você acha que “todo mundo faz”.

Gerar o texto da sua dissertação ou artigo do zero. Pedir ao ChatGPT para escrever o capítulo teórico, a análise de dados ou a discussão dos resultados e entregar esse texto como seu é fraude acadêmica. O texto não representa seu pensamento, sua análise, sua interpretação dos dados. Você está apresentando como sua uma produção que não é.

Usar referências sem verificar. Qualquer citação que o ChatGPT produziu precisa ser verificada na fonte original antes de entrar no seu trabalho. Sem exceção. Se você não encontrar o artigo em bases confiáveis como Scopus, Web of Science ou Google Scholar, não coloca. Uma referência inventada em um trabalho científico é fabricação de dados.

Omitir o uso quando a instituição ou periódico exige declaração. Cada vez mais, instituições e periódicos pedem que você informe como usou IA no processo de escrita. Não declarar quando isso é exigido é uma forma de desonestidade, mesmo que o uso em si fosse legítimo.

Usar para gerar dados, análises ou conclusões. Se você pediu ao ChatGPT para “analisar” seus dados qualitativos ou “interpretar” seus resultados, o que você tem é uma análise sem validade científica. A ferramenta não tem acesso ao seu referencial teórico, não conhece o contexto da sua pesquisa e não é capaz de fazer análise científica genuína.

O que as universidades e periódicos estão dizendo

Esse é um campo em movimento rápido, mas a direção está clara.

A Unicamp publicou diretrizes para uso ético de IA generativa na pesquisa que enfatizam a centralidade da agência humana: a IA pode apoiar, mas não substituir o pesquisador. O SciELO vem publicando reflexões sobre o tema desde 2025, incluindo o debate sobre a transparência no uso de IA e seus efeitos na credibilidade do pesquisador. Em 2026, o CNPq estabeleceu diretrizes que colocam a integridade científica e a transparência como princípios inegociáveis no uso de ferramentas de IA.

Uma pesquisa qualitativa publicada no ResearchGate com pós-graduandos em Administração apontou que plágio, confiabilidade das informações e direitos autorais são os temas que mais geram dúvida entre quem usa IA na pesquisa. A dúvida existe porque a maioria nunca recebeu orientação clara sobre o tema.

A tendência não é proibir. É regulamentar. E a regulamentação caminha na direção de exigir transparência, não de punir quem usa.

Como o Método V.O.E. resolve isso na prática

Se você já conhece o Método V.O.E., sabe que ele estrutura a escrita acadêmica em fases com funções distintas. Essa estrutura resolve naturalmente a questão do uso ético de IA, porque define com clareza o que é o trabalho intelectual do pesquisador e o que pode ser auxiliado por ferramentas.

Na fase de Organização, por exemplo, a IA pode entrar como apoio para estruturar o que você já pensou, não para pensar por você. Na fase de Elaboração, ela pode apoiar a revisão e a clareza do texto que você está construindo sobre os seus dados. Na fase de Singularização, o texto ganha sua voz, sua análise, suas escolhas. Essa fase não tem como ser terceirizada para uma IA, porque é exatamente o que torna o trabalho científico seu.

A lógica é simples: IA como ferramenta de apoio à execução, não como substituta do raciocínio. Se você tiver esse princípio claro, a maioria das dúvidas práticas se resolve sozinha.

A questão não é se você usa. É se você está no controle

Olha só: a pergunta “posso usar ChatGPT?” é menos importante do que a pergunta “eu entendo o que estou fazendo quando uso?”.

Um pesquisador que usa ChatGPT para reorganizar seu próprio raciocínio, revisar a clareza do que escreveu e agilizar tarefas mecânicas está usando a ferramenta de forma inteligente. Um pesquisador que pede ao ChatGPT para “fazer o trabalho” e entrega o resultado como seu está colocando em risco sua integridade científica, sua reputação e, em casos mais graves, sua trajetória acadêmica.

A diferença entre os dois não está na ferramenta. Está em quem está no controle do processo intelectual.

Se você quer construir uma prática de escrita acadêmica onde a IA é aliada sem nunca ser protagonista, isso é exatamente o que o Método V.O.E. foi desenhado para fazer. Não porque a IA é inimiga, mas porque a sua voz como pesquisador é insubstituível, e ela precisa estar no centro de tudo que você produz.

Faz sentido?

Perguntas frequentes

Posso usar o ChatGPT para escrever minha dissertação?
Depende de como você usa. Usar o ChatGPT para gerar o texto da sua dissertação do zero é antiético e pode configurar fraude acadêmica. Mas usá-lo para organizar ideias, revisar gramática, sugerir estruturas ou reformular trechos que você já escreveu é amplamente aceito, desde que você declare o uso conforme as diretrizes da sua instituição.
Usar ChatGPT em artigo científico é considerado plágio?
Não é plágio no sentido tradicional (copiar de outro autor), mas pode ser considerado desonestidade acadêmica se o texto gerado pela IA for apresentado como produção intelectual própria sem declaração. Cada periódico tem suas próprias diretrizes. O ponto central é a transparência: se você usou, declare.
Preciso declarar que usei IA no meu trabalho acadêmico?
Na maioria das instituições e periódicos científicos, sim. A prática recomendada é declarar o uso de IA na seção de Metodologia ou Agradecimentos, descrevendo como a ferramenta foi utilizada. O CNPq publicou em 2026 diretrizes específicas sobre o tema. Verifique as normas da sua instituição e do periódico antes de submeter.
<