Publicar Artigos com Prazos Curtos: A Pressão Que Adoece
A pressão por publicação com prazos curtos adoece pesquisadores. Entenda como esse sistema funciona, quem ele prejudica e o que está em jogo.
O que está por trás da urgência de publicar
Olha só. Vou dizer uma coisa que pesquisadores sabem mas raramente falam em voz alta: a pressão para publicar artigos com prazo curto não é natural, não é inevitável e não é neutra. Ela é uma escolha de design do sistema de avaliação da ciência. E é uma escolha com consequências sérias para quem pesquisa.
Não estou aqui para dizer que publicar é ruim. Publicar é essencial. O problema é publicar apressado, publicar por imposição de prazo, publicar porque o programa precisa de pontuação para a avaliação quadrienal, publicar porque o orientador precisa de produção para manter o credenciamento, publicar porque a bolsa vai ser cortada se você não aparecer nos relatórios.
Isso não é produção científica. É trabalho sob pressão mal gerida.
Como o sistema cria a urgência
O mecanismo não é difícil de entender. A CAPES avalia os programas de pós-graduação a cada quatro anos. Um dos critérios centrais dessa avaliação é a produção científica: quantos artigos foram publicados, em que periódicos, com que fator de impacto. Programas que publicam mais, em periódicos mais bem avaliados, tendem a ter notas mais altas. Notas mais altas trazem mais bolsas e mais financiamento.
O resultado prático disso, vivido por mestrandos e doutorandos Brasil afora, é uma pressão constante para produzir. O orientador precisa publicar para manter o credenciamento. O programa precisa publicar para manter a nota. O aluno precisa publicar para se formar. Todos precisam publicar o tempo todo, de preferência rapidamente.
Esse ciclo tem um nome bonito: busca pela excelência. Mas na prática, para quem está dentro, tem outro nome: trabalho sem fim com prazo impossível.
O que a pressa faz com a ciência
Vou ser direta aqui. A ciência feita com pressa produz problemas que vão além do estresse individual de quem pesquisa.
O “salami slicing” é um exemplo. Pegar um resultado que poderia ser um artigo robusto e fatiar em três menores, cada um com menos substância, para aumentar o número de publicações. O número cresce. A contribuição científica, não.
A revisão por pares sofre quando os periódicos ficam sobrecarregados de submissões geradas por essa pressão. O revisor que recebe oito artigos para analisar em dez dias não faz uma revisão de qualidade. É humanamente impossível.
Há também o fenômeno das publicações em periódicos predatórios, que aceitam qualquer coisa mediante pagamento de taxa de processamento. Isso não é problema moral individual de quem publica por lá. É sintoma de um sistema que criou demanda por publicação sem capacidade de oferta de periódicos sérios.
E tem o dado que poucos falam: a taxa de retratação de artigos científicos cresceu significativamente nos últimos anos. Erros que deveriam ter sido capturados na revisão não foram, porque todo mundo estava com pressa.
Quem mais sofre nesse sistema
A pressão por publicação com prazo curto não afeta todo mundo da mesma forma.
Pesquisadores em início de carreira, especialmente mestrandos e doutorandos, estão na posição mais vulnerável. Eles precisam publicar para se formar, muitas vezes sem ter ainda a maturidade de pesquisa para produzir com qualidade. Ficam em uma encruzilhada: publicar apressado ou não se formar no prazo.
Pesquisadores de programas com menos recursos e menos infraestrutura, especialmente no Norte e Nordeste do Brasil, enfrentam os mesmos critérios de avaliação com condições completamente diferentes. Avaliar um programa da UFAM e um da USP pelo mesmo barômetro de produção é comparar situações incomparáveis.
Pesquisadores que trabalham com temas de pesquisa de longo prazo, como estudos longitudinais, pesquisa etnográfica, pesquisa histórica, ficam em desvantagem estrutural. Esses campos não produzem artigos no mesmo ritmo que áreas com dados experimentais rápidos.
Pesquisadores que são mães, que têm filhos pequenos, que cuidam de familiares, que têm condições de saúde que afetam a produtividade. A régua da avaliação não pergunta sobre nada disso.
A diferença entre produção e produtivismo
Deixa eu ser clara: não estou defendendo que pesquisadores não precisam publicar. Publicação é parte do trabalho científico, é o mecanismo pelo qual o conhecimento circula, é como a comunidade avalia e constrói sobre o que já existe.
A crítica não é à publicação. É à lógica que transforma volume em medida principal de valor.
Existe pesquisa que leva dez anos para produzir um artigo que muda o campo. Existe pesquisa que produz um artigo por ano durante dez anos sem mover nada. Quantificar o valor de cada uma só pelo número de artigos é uma simplificação que serve à burocracia da avaliação, não ao avanço da ciência.
O pesquisador produtivo não é necessariamente o que publicou mais. É o que contribuiu mais. Essas coisas se sobrepõem, mas não são a mesma coisa.
O que mudar aqui não depende só do pesquisador individual
Vou dizer algo que pode soar impopular: você não vai resolver o problema do produtivismo acadêmico mudando seu comportamento individual. Isso não é uma questão de gestão de tempo ou de método de escrita melhor.
É uma questão de design do sistema de avaliação. E mudanças no sistema exigem pressão coletiva, voz de associações profissionais, debate público, e reformas nos critérios de avaliação da CAPES e dos conselhos de credenciamento.
Isso não quer dizer que você está impotente. Pesquisadores que discutem essas questões abertamente, que escrevem sobre elas, que participam de fóruns de debate sobre a política científica, são agentes de mudança nesse processo.
O que você pode fazer agora, enquanto está dentro do sistema: conhecer seus direitos dentro do programa, conversar com seus pares sobre as pressões que está sentindo, buscar apoio psicológico quando necessário, e lembrar que adoecer não é sacrifício necessário para produzir ciência.
Minha posição sobre isso
Tenho dito isso para minhas alunas há anos, e vou dizer aqui também: escrever bem e escrever rápido não são a mesma coisa. O Método V.O.E. que desenvolvi é sobre ter clareza e estrutura para escrever com mais eficiência. Mas eficiência serve a qualidade, não substitui prazo possível.
Nenhuma técnica de escrita resolve a pressão por publicação quando os prazos são estruturalmente impossíveis. Nenhum método de produtividade resolve o adoecimento quando o sistema está mal projetado.
Você pode conhecer mais sobre como trabalho com escrita acadêmica em /metodo-voe. Mas eu precisaria ser desonesta se dissesse que um método de escrita é a resposta para a pressão que o produtivismo coloca sobre pesquisadores.
A resposta para isso é mais política do que metodológica.
O peso da autoria nos artigos de prazo curto
Um fenômeno que a pressão por publicação produz e que é pouco discutido é o problema da autoria questionável. Quando o pesquisador precisa publicar e o tempo é curto, aparecem práticas como a autoria convidada, incluir o nome de alguém que não participou da pesquisa para aumentar prestígio ou retribuir favores, e a autoria fantasma, excluir quem contribuiu de verdade mas está em posição de menor poder.
Esses problemas são mais comuns do que as métricas de retratação sugerem, porque raramente são denunciados. Quem tem menos poder na hierarquia acadêmica, os alunos de pós-graduação, raramente questiona um orientador sobre autoria.
Saber que essas práticas existem e conhecer os princípios de autoria do ICMJE (International Committee of Medical Journal Editors) ou dos guias de autoria da sua área é uma forma de se proteger. Contribuição intelectual, participação na análise e na escrita, revisão e aprovação do produto final: esses são os critérios de autoria legítima. Nome no artigo por posição hierárquica não é.
O que seria diferente com um sistema bem desenhado
Não vou encerrar esse post só com diagnóstico. Vale pensar no que um sistema melhor pareceria.
Um sistema de avaliação da ciência que considera qualidade além de quantidade contaria impacto real, citações com contexto, aplicação dos resultados, replicabilidade. Isso já existe em partes de outros sistemas internacionais e começa a aparecer em discussões no Brasil.
Um sistema que reconhecesse a diversidade de tempos de diferentes campos de pesquisa ajustaria os critérios para estudos longitudinais, etnografias, pesquisas históricas, em vez de usar o mesmo barômetro para todas as áreas.
Um sistema que levasse condições estruturais em conta na avaliação dos programas regionais, em vez de comparar programas com infraestruturas completamente diferentes pelo mesmo critério de produção, produziria avaliações mais justas e mais úteis para o desenvolvimento da ciência no país.
Isso não é utopia. São critérios que outros países já debatem e em partes implementam. O debate no Brasil existe, mas precisa de mais vozes dentro e fora da academia.
O que vale perguntar antes de entrar em um programa
Se você está escolhendo um programa agora, uma das perguntas mais reveladoras que você pode fazer na entrevista ou conversa com o coordenador é: “Como o programa apoia alunos que estão tendo dificuldade para publicar no prazo?”
A resposta diz muito sobre a cultura do programa.
Programas que tratam dificuldade de publicação como falha pessoal têm uma cultura que você vai sentir todos os dias. Programas que entendem que o prazo de publicação é afetado por dezenas de variáveis além do controle do aluno têm uma cultura diferente.
Faz sentido saber disso antes de entrar?