Como identificar se um texto foi escrito por IA
Detectores de IA erram com frequência. Saiba quais são os sinais reais de texto gerado por inteligência artificial e como avaliar com mais critério e menos paranoia.
O problema não é identificar IA. É identificar com justiça.
Vamos lá. A preocupação com texto gerado por IA em contexto acadêmico é legítima. A integridade intelectual importa, e o uso não declarado de ferramentas que alteram substancialmente um texto coloca questões reais sobre autoria e originalidade.
Mas a forma como essa preocupação está sendo traduzida na prática tem um problema sério: ferramentas automáticas de detecção sendo usadas como prova definitiva de algo que, na prática, elas não conseguem provar com consistência.
Este post não é sobre defender uso desonesto de IA. É sobre entender o que realmente funciona como sinal de texto gerado por IA, e o que não funciona, para que pesquisadores, orientadores e avaliadores possam fazer esse julgamento com mais critério e menos paranoia.
O que os detectores automáticos fazem (e não fazem)
Ferramentas como GPTZero, Turnitin AI Detection e similares funcionam, de forma simplificada, avaliando duas métricas: perplexidade (o quanto o texto é previsível do ponto de vista estatístico) e burstiness (variação no comprimento e complexidade das frases).
Texto gerado por IA tende a ter baixa perplexidade, palavras e estruturas previsíveis, e baixa burstiness, parágrafos mais uniformes. Texto humano tende a ser mais variado e menos previsível.
O problema é que essa correlação não é uma lei. Texto técnico e acadêmico bem escrito, especialmente em ciências exatas, tende naturalmente a ter estrutura previsível e linguagem padronizada. Um pesquisador que escreve com clareza e consistência técnica pode ter pontuação alta em detector de IA não porque usou IA, mas porque domina a linguagem técnica do campo.
O oposto também acontece: texto gerado por IA que foi editado por um humano, ou que foi solicitado com instruções de estilo específicas, pode passar pelos detectores sem problema.
A taxa de falsos positivos nesses sistemas, ou seja, a frequência com que texto humano é classificado erroneamente como IA, é documentada e não trivial. Usar uma pontuação de 80% em detector automático como evidência de desonestidade acadêmica é metodologicamente problemático.
O que realmente sinaliza texto gerado por IA
Dito isso, existem padrões linguísticos e estruturais que, quando presentes em conjunto, levantam questões legítimas. Eles não são provas, mas são pontos de partida para uma avaliação mais cuidadosa.
Uniformidade estrutural incomum. Parágrafos de tamanho muito similar, com mesma estrutura interna (afirmação, desenvolvimento, reforço), durante extensão longa. Escritores humanos têm variação natural; às vezes um parágrafo é uma frase só. Às vezes uma ideia se estende por muito mais. A uniformidade perfeita é rara em texto humano não editado.
Vocabulário estatisticamente genérico. Modelos de linguagem têm preferência por certas construções que aparecem com frequência no texto de treinamento: “é fundamental notar”, “cabe destacar”, “em última análise”, “considerações finais apontam para”. Essas expressões são usadas por humanos também, mas quando aparecem em concentração alta em um texto curto, junto com outros padrões, merecem atenção.
Ausência de voz autoral. Texto acadêmico humano, especialmente em nível de mestrado e doutorado, tem marcas da perspectiva do autor, tensões que o próprio pesquisador está tentando resolver, perguntas que ficam em aberto, posições que ele está construindo. IA tende a produzir texto que resolve tudo, que não tem dúvidas reais, que conclui de forma satisfatória demais.
Referências que não existem ou existem mas não dizem o que está escrito. Este é o sinal mais concreto de problema. Modelos de linguagem alucinam referências com frequência, inventando autores, títulos e anos. Verificar se as referências listadas existem e dizem o que o texto afirma que dizem é uma das verificações mais direta que existe.
Desconexão entre o texto e o processo do pesquisador. Um aluno que até então enviou rascunhos com erros e incertezas típicas do processo de aprendizagem e de repente entrega um texto com estilo e profundidade muito acima do padrão estabelecido é um sinal contextual legítimo. Não é evidência de desonestidade, mas é razão para uma conversa sobre o processo.
A conversa é mais útil que o detector
Faz sentido? A melhor ferramenta para identificar se um texto foi gerado por IA em contexto acadêmico não é um software. É uma conversa.
Um pesquisador que escreveu genuinamente o que escreveu vai conseguir explicar as escolhas que fez. Vai saber por que usou determinada referência, o que significava a frase que está no segundo parágrafo da discussão, por que escolheu aquela metodologia e não outra. Não de cor, mas com a fluidez de quem construiu aquele argumento.
Um pesquisador que enviou texto gerado por IA sem o processar como seu vai ter muito mais dificuldade nessa conversa. A desconexão entre o texto e o domínio do conteúdo fica evidente quando você explora o processo, não apenas o produto.
Orientadores que desenvolvem essa prática de discutir o processo junto com o produto, que perguntam sobre as decisões do texto regularmente, têm muito mais capacidade de perceber quando algo está fora do padrão.
O problema da assimetria de poder nas acusações
Preciso mencionar um aspecto que raramente aparece nas discussões técnicas sobre detecção de IA: a assimetria de poder entre quem acusa e quem é acusado.
Quando um professor, orientador ou comissão de avaliação usa um detector automático e decide que aquele resultado é prova suficiente de desonestidade, o pesquisador ou estudante acusado enfrenta um ônus de prova desproporcional. Ele precisa provar que não usou IA de forma desonesta, o que é inerentemente mais difícil do que provar que usou.
Isso é um problema real, com consequências reais para pesquisadores que simplesmente escrevem de forma técnica e consistente, ou que vêm de contextos em que aprenderam a escrever de forma padronizada.
Em áreas onde a língua de publicação não é a língua materna do pesquisador, a questão é ainda mais delicada. Pesquisadores brasileiros que escrevem em inglês usando ferramentas de IA para auxiliar na fluência linguística sem alterar o conteúdo científico estão em terreno legítimo. Mas o texto resultante pode acionar detectores de forma desproporcional.
Instituições que estão desenvolvendo políticas sobre IA na pesquisa precisam considerar esses aspectos de equidade. Uma política que protege a integridade acadêmica sem criar vulnerabilidades para grupos específicos de pesquisadores é muito mais robusta do que uma política baseada em ferramentas automatizadas com vieses documentados.
O que isso significa para quem usa IA de forma ética
Para pesquisadores que usam IA de forma declarada e integrada ao processo, como auxiliar para organizar ideias, rever estrutura ou identificar inconsistências, esse cenário impõe uma responsabilidade adicional: documentar o processo.
Manter histórico de versões, registrar quando e como a IA foi usada, fazer a declaração de uso no próprio artigo quando o periódico permite ou exige, são práticas que protegem sua autoria e sua integridade em um ambiente onde a suspeita pode ser arbitrária.
O uso ético de IA na academia não é invisível. É transparente.
Você pode encontrar mais reflexões sobre integridade acadêmica no contexto da IA nos posts sobre como declarar o uso de IA no artigo e como usar IA sem comprometer sua autoria. A conversa ainda está se construindo, e saber navegar nela com clareza é parte do que significa ser pesquisador na era atual.