Fabricação de Dados na Pesquisa: Por Que Acontece em 2026
A fabricação de dados científicos não é novidade, mas está mudando de forma. Entenda o que move essa prática e o que a pesquisadora pode fazer diferente.
A fabricação de dados não é o problema de quem você imagina
Quando falamos de fabricação de dados na pesquisa, a imagem que aparece é sempre a mesma: um pesquisador desonesto, isolado no laboratório, inventando resultados para publicar rápido. O vilão com nome e sobrenome que aparece nas notícias de retratação.
Fabricação de dados científicos é criar ou alterar registros, resultados ou observações que não correspondem ao que foi de fato coletado ou observado. É má conduta científica na definição de todas as agências de fomento relevantes, do CNPq à NIH.
Mas em 2026, o problema é mais difuso do que essa imagem sugere. E entender isso importa para qualquer pesquisadora que queira trabalhar com integridade em um sistema que pressiona em direções complicadas.
O que mudou e o que não mudou
O que não mudou: fabricação de dados sempre foi um problema real, com casos documentados desde pelo menos os anos 1970. Fraudes famosas como a de Jan Hendrik Schön na física e Hwang Woo-suk na biologia existiam antes da IA, antes das métricas de impacto serem o que são hoje.
O que mudou em 2026 é o contexto de pressão. Programas de pós-graduação com prazos mais curtos. Financiamento cada vez mais condicionado a resultados publicáveis. Competição crescente por espaço nos mesmos periódicos de alto impacto. E agora, ferramentas que tornam tecnicamente mais fácil gerar dados que parecem plausíveis.
A combinação não é boa. Não porque pesquisadores viraram desonestos de repente. É porque o sistema de incentivos empurra pessoas razoáveis a fazer escolhas que, em circunstâncias diferentes, não fariam.
Como a pressão por publicação cria terreno fértil
Olha só: a lógica do “publish or perish” existe há décadas. Mas a intensidade aumentou. Um programa de doutorado de 4 anos que exige publicações em periódicos Qualis A1 antes da defesa é um prazo apertado para pesquisa de qualidade. Pesquisadoras nessa situação não precisam ser desonestas por convicção. Basta estar cansada, aterrorizada com o prazo e convencida de que “ajustar” um valor que ficou fora da margem não é bem fabricar.
Esse é um dos padrões mais comuns que a literatura de integridade científica descreve: não a fabricação grosseira de um estudo inteiro, mas o ajuste pontual. O dado que ficou fora da margem e que “com certeza seria diferente se o equipamento não tivesse dado problema”. O participante que foi excluído porque “seu perfil era atípico”. A análise que foi repetida até dar o resultado esperado.
Cada decisão dessas, individualmente, pode parecer defensável. Em conjunto, elas constroem um resultado que não existe na realidade observada.
IA na fabricação: o que mudou de forma prática
A entrada de ferramentas de linguagem no cotidiano da pesquisa criou uma nova camada de complexidade. Em texto, ficou muito mais fácil gerar transcrições de entrevistas que nunca aconteceram, comentários de participantes que nunca existiram, ou seções de análise qualitativa construídas sem dados reais.
Não estou dizendo que isso é comum. Estou dizendo que ficou tecnicamente acessível. E que as ferramentas de detecção, que analisam padrões estatísticos e linguísticos em busca de inconsistências, ainda estão correndo atrás.
O que a IA não consegue fazer facilmente é fabricar consistência. Dados reais têm irregularidades, variação imprevisível, padrões que refletem o mundo bagunçado que eles representam. Dados fabricados, mesmo com ajuda de IA, tendem a ser muito limpos, muito coerentes, muito dentro do esperado. É por isso que análises de distribuição estatística e verificações de data-sharing se tornaram práticas de integridade mais importantes.
Detectar fabricação ficou mais difícil e mais fácil ao mesmo tempo
Parece contraditório, mas faz sentido. Ficou mais difícil porque as ferramentas disponíveis para gerar dados falsos plausíveis melhoraram. Ficou mais fácil porque as ferramentas de detecção também evoluíram.
Plataformas como o GRIM test (para verificar se médias reportadas são matematicamente possíveis dado o tamanho amostral) e ferramentas de análise de distribuição estatística já detectam irregularidades que antes passavam despercebidas. Periódicos importantes passaram a exigir dados brutos como condição de publicação. Isso não é garantia, mas cria atrito real para quem quer publicar resultados fabricados.
O que isso significa na prática: a janela para fabricação sem consequência está se fechando. Isso é bom para a ciência. E é um argumento prático, além do ético, para pesquisar com integridade.
O que a pesquisadora íntegra faz diferente
A resposta simples seria “não fabrica dados”. Mas essa resposta ignora a pressão real que pesquisadoras enfrentam.
A resposta mais útil é sobre escolhas estruturais. A pesquisadora que trabalha com integridade em 2026 faz algumas coisas antes de estar na situação de pressão:
Registra o protocolo de pesquisa antes da coleta, em plataformas como o OSF (Open Science Framework). Isso cria um registro público com data e hora do que foi planejado antes de ver os dados, o que torna muito mais difícil a narrativa de “a gente sempre pensou em analisar assim”. Pré-registro não elimina flexibilidade analítica, mas separa claramente o que foi planejado do que foi descoberto durante a análise.
Pratica abertura de dados quando possível. Dados abertos não são só altruísmo. São proteção. Quem compartilha os dados brutos torna muito mais difícil a suspeita posterior de fabricação.
Documenta decisões de análise em tempo real, não depois de ver os resultados. Um diário de pesquisa simples, mesmo informal, que registre por que certas escolhas foram feitas, é evidência de processo legítimo.
E aprende a nomear resultados negativos como resultados, não como fracasso. Uma pesquisa que não confirma a hipótese não é uma pesquisa falhada. É uma contribuição para o mapa do que não funciona, que também tem valor científico real.
O que o sistema precisaria fazer
Deixa eu ser sincera: a solução para fabricação de dados não está só na ética individual das pesquisadoras. Um sistema que pune resultados negativos, que financia só o que tem chance de dar certo, que avalia pesquisadoras pelo número de publicações em vez da qualidade do processo, vai continuar produzindo pressão que empurra em direção a atalhos.
Periódicos que aceitam só resultados positivos criam um incentivo perverso: pesquisas com resultados negativos ficam na gaveta, e os positivos, nem sempre reproduzíveis, acumulam citações. Isso é viés de publicação. Está documentado. É um problema estrutural, não de caráter individual.
O que muda no curto prazo são as políticas institucionais. Programas de pós-graduação que adotam pré-registro como requisito. Periódicos que oferecem aceitação condicional baseada em protocolo, antes de ver os dados. Agências de fomento que financiam pesquisa exploratória sem exigir resultados predeterminados.
Essas mudanças existem, em alguns contextos. Não são a norma ainda. No Brasil, o movimento de ciência aberta avança devagar em comparação com Europa e América do Norte. Parte disso é questão de infraestrutura. Parte é cultura. O cenário está mudando, e pesquisadoras que adotam práticas abertas antes da exigência formal tendem a estar mais preparadas quando as exigências chegam.
Por que isso importa para quem ainda está no começo
Se você está no mestrado ou doutorado agora, essa conversa pode parecer distante. Você não está pensando em fabricar dados. Você está pensando em terminar a dissertação. Mas o contexto de pressão que descrevi acima não surge só para pesquisadores seniores. Ele começa na pós-graduação, quando os prazos são curtos, os recursos são escassos e a sensação de que “todo mundo faz assim” começa a se instalar.
O que você normaliza no seu processo agora vai com você. A pesquisadora que aprende cedo a separar o que os dados dizem do que ela queria que dissessem, que documenta suas decisões, que trata resultado negativo como resultado, está construindo um padrão de trabalho que vai resistir à pressão mais tarde.
Não é questão de ser heroica num sistema imperfeito. É questão de ter um método que funciona independente do que o sistema pede em troca.
É exatamente nisso que o Método V.O.E. (Visualizar, Organizar, Escrever) opera: na construção de um processo de pesquisa que tem registro, que tem ordem, que tem rastreabilidade. Não porque alguém vai auditar, mas porque um processo organizado produz uma pesquisadora que sabe exatamente o que fez e por quê.
Se quiser entender mais sobre como o V.O.E. se aplica à integridade do processo de pesquisa, tem mais em /metodo-voe.
Perguntas frequentes
O que é fabricação de dados em pesquisa científica?
Por que pesquisadores fabricam dados mesmo sabendo que é errado?
Como a IA mudou o problema de fabricação de dados na pesquisa?
Leia também
Receba estratégias de escrita acadêmica direto no seu feed
Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.