IA e revisão por pares: o que está mudando para você
A IA está transformando o peer review. Entenda o que está mudando na revisão por pares, o que isso significa para submissão de artigos e como se preparar.
Algo está mudando na cadeia de publicação
Vamos lá. A revisão por pares é um dos pilares do sistema científico. É o processo pelo qual pesquisadores especialistas avaliam manuscritos submetidos a periódicos antes de decidir se merecem ser publicados.
Não é um sistema perfeito. Há críticas bem documentadas sobre viés, sobre falta de reprodutibilidade das avaliações, sobre a sobrecarga de trabalho voluntário dos revisores, sobre o tempo que o processo leva. Mas é o mecanismo que a ciência usa para garantir controle de qualidade na produção de conhecimento publicado.
E a IA está começando a entrar nesse processo de formas que merecem atenção de qualquer pesquisador que submeta ou pretenda submeter trabalhos para publicação.
O que a IA já faz no peer review hoje
O uso de IA no processo de revisão por pares é mais presente do que muitos pesquisadores percebem, e está aumentando.
Nos níveis mais básicos, ferramentas de IA já são usadas por muitos periódicos para triagem inicial de manuscritos: verificação de plágio (o iThenticate é amplamente utilizado), checagem de coerência estatística básica, identificação de problemas em imagens (manipulação de figuras, duplicação de dados). Essa triagem acontece antes mesmo de o manuscrito chegar a um revisor humano.
Alguns periódicos de grandes editoras científicas já experimentam com ferramentas mais sofisticadas que auxiliam na identificação de possíveis revisores para um manuscrito, na extração de tópicos e argumentos principais, ou na verificação de consistência entre o que o abstract promete e o que o texto entrega.
Há também o lado dos revisores: com que frequência os revisores usam IA para ajudar a escrever os pareceres é uma pergunta que ainda não tem resposta sistemática, mas há evidências de que isso acontece. Isso levanta questões sobre confidencialidade dos manuscritos (se você usa uma IA para processar um texto que não é seu, a confidencialidade está comprometida?) e sobre a autoria dos pareceres.
O que os periódicos estão dizendo
A indústria editorial científica está respondendo de formas variadas ao uso de IA, e a situação é bastante dinâmica.
Alguns periódicos adotaram políticas explícitas que proíbem o uso de IA pelos revisores para processar ou avaliar os manuscritos. Nature, por exemplo, publicou posicionamentos claros sobre isso.
Outros periódicos têm políticas sobre o que os autores precisam declarar sobre uso de IA na produção do manuscrito, mas não têm políticas equivalentes sobre o que os revisores podem fazer.
Muitos periódicos ainda não têm nenhuma política formal, o que significa que há um vácuo significativo sobre o que é permitido e o que não é.
O COPE (Committee on Publication Ethics) publicou em 2023 orientações sobre o uso de IA e ferramentas baseadas em IA no processo editorial científico. Essas orientações são um ponto de referência importante, embora não sejam vinculantes.
O que isso significa para você como pesquisador
Faz sentido? Esse cenário tem implicações práticas para como você conduz sua pesquisa e prepara suas publicações.
Do lado da submissão: você precisa conhecer as políticas do periódico onde vai submeter sobre declaração de uso de IA. A maioria dos periódicos de referência já tem alguma forma de declaração exigida. Essa declaração vai na seção de métodos ou nos acknowledgments, dependendo das instruções para autores. Ignorar essa exigência pode resultar em rejeição ou em problemas no processo de revisão.
Do lado da estratégia de publicação: se um artigo seu vai ser submetido a um periódico que usa triagem por IA, a coerência interna do manuscrito, a consistência entre abstract e conteúdo e a ausência de texto que pareça gerado automaticamente sem revisão passam a ter relevância antes mesmo de a avaliação substantiva começar. Não porque você precisa “enganar” a triagem, mas porque inconsistências que antes escapavam agora são identificadas mais cedo.
Do lado da integridade: a pergunta sobre usar IA para escrever partes do manuscrito sem declarar fica mais relevante num contexto em que os próprios periódicos estão usando IA para verificar exatamente isso. A transparência que sempre foi um valor ético passa a ser também uma estratégia prática.
A crítica ao peer review e o que a IA não resolve
Aqui vale uma honestidade que os debates mais entusiastas sobre IA na ciência às vezes perdem de vista.
A revisão por pares tem problemas reais. Demora meses ou anos. Tem viés de confirmação, de gênero, de instituição, de país. É um trabalho voluntário não remunerado que sobrecarrega pesquisadores que já estão sobrecarregados. A reprodutibilidade das avaliações é baixa, e o mesmo artigo submetido a periódicos diferentes frequentemente recebe avaliações contraditórias.
A IA pode resolver partes desse problema. Triagem mais rápida para consistência básica, identificação de potenciais conflitos de interesse, sugestão de revisores com expertise real na área específica. Essas são contribuições concretas.
O que a IA não resolve, pelo menos não da forma como está sendo implementada agora: o julgamento substantivo sobre a relevância e a contribuição de uma pesquisa para um campo. A avaliação de se uma metodologia é realmente adequada para a pergunta que o estudo faz. A percepção de uma ideia genuinamente nova que ainda não tem referências para ser reconhecida como nova.
Esse julgamento ainda requer um ser humano especialista que entende não apenas o texto, mas o campo, o contexto e o que está faltando no conhecimento disponível.
O que vem a seguir
O debate sobre IA no peer review está no começo. As políticas estão sendo escritas agora, e muitas delas vão mudar nos próximos anos.
O que parece improvável é que a IA saia desse processo. As ferramentas estão disponíveis, reduzem custos para editoras e endereçam alguns dos gargalos mais visíveis. O caminho é provavelmente de integração crescente, com sistemas híbridos onde IA faz triagem e alguns aspectos de verificação, e revisores humanos fazem a avaliação substantiva.
Para pesquisadores, o que isso significa na prática é: conhecer as políticas dos periódicos onde submete, declarar o uso de IA de forma adequada, e produzir manuscritos com a consistência interna que os processos de triagem vão cada vez mais verificar.
A ciência está mudando em velocidade que as instituições mal conseguem acompanhar. Pesquisadores que entendem essas mudanças estão em posição melhor do que os que tentam ignorá-las.
Para entender mais sobre como declarar uso de IA nos seus manuscritos, o post sobre como declarar uso de IA no artigo científico é um bom complemento. E se quiser ver o panorama das políticas editoriais sobre IA, o post sobre o que os periódicos internacionais dizem sobre IA em 2026 tem um mapeamento mais detalhado.
Uma reflexão sobre qualidade e velocidade
O peer review tradicional é lento por razões que têm a ver com a natureza do julgamento especializado. Um pesquisador que revisa um artigo precisa não apenas ler o texto, mas ativar o conhecimento acumulado sobre o campo, comparar com o que foi publicado antes, identificar o que está faltando no argumento, verificar se a metodologia é adequada. Tudo isso requer tempo e expertise que não se replica rapidamente.
A pressão para acelerar esse processo usando IA é real. Editoras têm interesse em reduzir custos e aumentar throughput. Autores têm interesse em publicar mais rápido. Mas vale fazer a pergunta: se a revisão por pares ficar muito rápida, o que estamos perdendo?
A lentidão do peer review não é só ineficiência. É também o tempo que permite ao revisor ler com cuidado, consultar a literatura, reconsiderar uma impressão inicial. Automatizar demais esse processo pode produzir velocidade à custa da profundidade que é exatamente o que deveria distinguir ciência revisada de conteúdo não revisado.
Não é argumento contra o uso de IA no processo editorial. É argumento para pensar com clareza sobre o que a IA está sendo usada para fazer e o que deve continuar sendo feito por humanos.