IA & Ética

Como Usar IA na Escrita Acadêmica: Guia Sem Plágio

Aprenda como usar IA na escrita acadêmica de forma ética e sem plágio. O que é permitido em TCCs, dissertações e artigos científicos.

ia-escrita-academica sem-plagio escrita-academica tcc ia-etica

A pergunta que ninguém quer responder com clareza

Olha só: toda semana recebo alguma variação da mesma pergunta. “Nathalia, posso usar IA no meu TCC?” Ou: “Estou usando ChatGPT para escrever minha dissertação, tô errada?” Ou ainda, mais discretamente: “Existe alguma forma de usar IA sem que minha banca perceba?”

Essa última pergunta me diz tudo sobre o que está errado na conversa que a academia está tendo sobre IA.

O problema não é que estudantes querem usar IA. O problema é que ninguém está explicando com clareza onde está a linha entre uso ético e fraude. Fica tudo num cinzento conveniente que, na prática, serve para culpar o estudante depois que o problema aparece.

Vou tentar ser mais direta do que a maioria dos manuais institucionais tem sido.

O que é plágio, o que é fraude e por que a distinção importa

Plágio, na definição clássica, é apresentar como seu um trabalho que é de outra pessoa. Você copia um parágrafo de um artigo sem citar, faz parecer que escreveu, e isso é plágio.

Fraude acadêmica é mais amplo: é qualquer forma de enganar a instituição sobre o processo que produziu o seu trabalho. Comprar uma dissertação pronta é fraude. Fazer outra pessoa defender por você é fraude. E, sim, submeter um texto gerado integralmente por IA como se fosse sua produção intelectual também é fraude, mesmo que tecnicamente a IA não tenha “autoria” no sentido jurídico.

A confusão acontece porque as ferramentas de IA são novas e as instituições ainda estão engatinhando para atualizar seus regulamentos. Mas o princípio ético não mudou: um trabalho acadêmico precisa ser produto do seu raciocínio, da sua análise, da sua capacidade de mobilizar conhecimento e construir argumentos.

A questão, então, não é “usei IA ou não usei”. É: “o pensamento aqui é meu?”

Onde o uso de IA é inegavelmente ético

Há usos de IA na escrita acadêmica que nenhuma banca séria vai questionar, porque são análogos a ferramentas que já existiam antes.

Revisão gramatical e ortográfica. Você sempre pôde usar corretor ortográfico. Pedir para uma IA apontar erros de concordância ou sugerir uma frase mais clara é exatamente isso, com mais sofisticação. O conteúdo continua sendo seu.

Organização de referências. Ferramentas como Zotero já fazem isso faz anos. Usar IA para formatar uma lista de referências em ABNT não coloca sua autoria em xeque.

Identificação de inconsistências estruturais. “Meu parágrafo de introdução anuncia três argumentos, mas só desenvolvo dois” é o tipo de problema que uma IA consegue sinalizar. Perceber isso não é diferente de pedir para um colega ler seu texto antes da entrega.

Geração de esboços para você reescrever. Pedir para uma IA esboçar uma estrutura de parágrafo que você depois reescreve completamente, com suas palavras e seu raciocínio, entra numa zona mais cinzenta, mas geralmente aceita quando o resultado final é genuinamente seu.

O fio condutor é simples: você está usando a IA como ferramenta para aprimorar algo que você produziu, não para substituir a produção em si.

Onde as coisas ficam problemáticas

Aqui é onde a conversa precisa ser mais honesta.

Pedir para uma IA “escrever um parágrafo sobre análise de conteúdo Bardin” e colar o resultado na sua dissertação é problemático. Não porque a IA escreveu, mas porque você está apresentando um raciocínio que não é seu. Se a banca perguntar “por que você escolheu essa abordagem metodológica”, você vai ter que defender algo que não pensou.

Pedir para uma IA “completar” seções que você não conseguiu desenvolver é a mesma coisa. A IA vai gerar algo plausível, internamente coerente, às vezes até bem escrito. Mas não vai ser o seu argumento.

Existe um risco ainda maior, que pouca gente fala abertamente: a fabricação de referências. Vários modelos de linguagem têm o hábito desagradável de inventar artigos científicos com títulos e autores plausíveis que simplesmente não existem. Se você citar essas referências sem verificar, vai incluir fontes fictícias no seu trabalho. Sua banca provavelmente vai checar, e esse tipo de erro é difícil de explicar.

Faz sentido? A IA não mente no sentido humano do termo, ela gera o que é estatisticamente provável. O problema é que “estatisticamente provável” não é o mesmo que “verdadeiro”.

O que seu regulamento provavelmente diz (e o que você deveria verificar)

Muitas instituições brasileiras ainda não têm políticas específicas para uso de IA na produção acadêmica. O que existe, na maioria dos casos, são cláusulas sobre autoria, originalidade e integridade acadêmica que foram escritas antes de o ChatGPT existir.

Isso não significa que você está livre para usar IA sem critério. Significa que você está operando numa área onde as regras estão sendo escritas enquanto você trabalha.

O que eu recomendo: procure ativamente o regulamento do seu programa, do seu TCC ou da disciplina em questão. Se não houver nada específico sobre IA, converse com seu orientador antes de usar qualquer ferramenta generativa para produção de texto. Isso não é paranoia, é gestão de risco.

Algumas bancas já rejeitam trabalhos com evidências de uso de IA generativa, mesmo em universidades que não têm política formal sobre o assunto. A norma institucional formal e a prática dos avaliadores são duas coisas diferentes.

A pergunta que você deveria fazer antes de usar qualquer IA

Existe um teste simples que costumo sugerir: depois de usar a IA, consigo explicar cada afirmação do meu texto sem consultar o que ela gerou?

Se você usou IA para revisar a gramática de um parágrafo que você escreveu, a resposta é sim, trivialmente.

Se você pediu para a IA desenvolver um argumento sobre o seu objeto de pesquisa e colou o resultado, provavelmente a resposta é não.

A questão não é se a IA ajudou ou não. A questão é se o resultado final representa genuinamente o que você pensa sobre o tema. Um trabalho acadêmico precisa ser uma janela para o seu raciocínio, não uma vitrine do que a IA consegue produzir a partir do seu tema de pesquisa.

No Método V.O.E., essa distinção está no centro de como trabalhamos escrita acadêmica: as ferramentas existem para servir ao pensamento, não para substituí-lo.

Transparência como estratégia, não como obrigação moral

Vou ser direta sobre algo que a maioria das discussões sobre IA acadêmica ignora: a transparência sobre o uso de ferramentas não é só uma obrigação ética. É também uma proteção para você.

Se você declarar explicitamente no seu trabalho “usamos IA generativa para revisão textual e verificação de coerência estrutural, sem uso para geração de conteúdo” e o seu orientador souber disso desde o início, a conversa sobre uso de IA não acontece na defesa, diante da banca, como uma acusação. Ela acontece antes, como uma escolha metodológica documentada.

Isso também significa que você pode, em contextos onde a instituição permite, usar IA de formas mais extensas sem que isso se torne um problema, desde que o uso esteja declarado e dentro do que é aceito.

A norma está mudando. As instituições que hoje proíbem qualquer uso de IA provavelmente vão rever essa posição nos próximos anos. As que hoje não têm política vão criar uma. Estar à frente dessa curva, documentando o que você faz, é mais inteligente do que esperar a regra aparecer depois.

O que fica de aprendizado aqui

Usar IA na escrita acadêmica não é intrinsecamente errado, e a posição que diz “qualquer uso é plágio” vai envelhecer mal. Mas a posição oposta, de que você pode submeter qualquer coisa que uma IA gere como se fosse sua produção intelectual, é eticamente problemática e praticamente arriscada.

O critério que vale é o de autoria: o raciocínio é seu, os argumentos são seus, você consegue defender cada afirmação porque pensa de fato o que está escrito.

Se isso estiver garantido, você pode usar as ferramentas que existem sem sentir que está fazendo algo errado. Se não estiver, nenhuma ferramenta vai resolver o problema, que é outro: você precisa desenvolver a sua escrita acadêmica, não terceirizar ela.

Para aprofundar o tema, os recursos gratuitos do blog têm materiais específicos sobre escrita acadêmica ética com e sem IA. E se você quiser entender como trabalhar sua escrita de forma estruturada, a página sobre o Método V.O.E. explica como essa abordagem funciona.

Perguntas frequentes

É plágio usar IA para escrever trabalhos acadêmicos?
Depende de como você usa. Submeter um texto gerado integralmente por IA como se fosse sua autoria é fraude acadêmica. Mas usar IA para revisar gramática, organizar ideias ou estruturar parágrafos que você depois reescreve com suas próprias palavras é diferente. A chave é que o raciocínio, a análise e as ideias centrais precisam ser seus.
Como usar IA no TCC sem comprometer a originalidade?
Use IA para tarefas instrumentais: formatar referências, verificar coerência textual, sugerir sinônimos, identificar repetições. O conteúdo intelectual, os argumentos e as conclusões precisam partir de você. Antes de qualquer uso, consulte o regulamento do seu curso, pois as regras variam por instituição.
Quais são os limites éticos do uso de IA na escrita acadêmica?
O limite principal é a autoria: você deve ser capaz de defender cada argumento do seu texto. Se a IA escreveu e você não consegue explicar o raciocínio por trás de uma afirmação, é um sinal de que ultrapassou o limite ético. Outro ponto crítico é a fabricação de dados ou referências, algo que algumas ferramentas fazem com facilidade assustadora.
<