Formar pesquisadores na era da IA: o que precisa mudar
O que as universidades precisam mudar na formação de pesquisadores diante da IA? Uma análise honesta sobre competências, lacunas e responsabilidades institucionais.
A lacuna que ninguém está preenchendo
Olha só: quando pesquisadores usam IA nos seus processos de trabalho, seja para organizar notas, explorar literatura, rever estrutura textual ou qualquer outra função, eles estão navegando em um território que suas instituições ainda não mapearam direito.
As universidades brasileiras estão, em sua maioria, atrasadas nessa conversa. A maioria das políticas institucionais sobre IA na pesquisa que existem foram criadas como resposta de urgência, definindo o que é proibido para preservar a avaliação, sem construir o que é necessário para formar pesquisadores capazes de usar IA de forma competente e responsável.
Esse atraso tem custo. Pesquisadores em formação estão usando ferramentas que moldam seu processo sem ter recebido educação sobre essas ferramentas. Isso não é diferente de ter um laboratório com equipamentos novos e não oferecer treinamento em como usá-los com segurança.
O que a formação atual não cobre
Programas de pós-graduação brasileiros, em geral, formam bem em metodologia de pesquisa, em revisão de literatura, em escrita acadêmica. Essas são capacidades fundamentais e continuam sendo.
O que raramente entra na formação é a camada de competência específica para o ambiente em que a pesquisa acontece hoje. E isso inclui várias coisas que se tornaram relevantes com a disseminação da IA.
Avaliação crítica de output de IA. Saber que modelos de linguagem alucinam referências é informação básica que todo pesquisador deveria ter. Mas a maioria dos pesquisadores que eu encontro em formação não recebeu nenhuma instrução formal sobre como verificar output de IA, como identificar quando um modelo está fabricando informação com aparência de confiança, ou quais tipos de tarefas têm maior risco de produzir outputs incorretos.
Declaração de uso. Quando, como e onde declarar que uma ferramenta de IA foi usada no processo de pesquisa ainda é uma questão não resolvida. Os periódicos estão publicando políticas diferentes. Agências de fomento têm requisitos diferentes. Universidades têm posições diferentes. E pesquisadores em formação ficam no meio disso sem orientação clara.
Vieses em modelos de linguagem. Modelos de linguagem são treinados em dados que refletem as desigualdades e os vieses do mundo. Para pesquisa qualitativa em particular, usar IA para auxiliar na análise de conteúdo ou na categorização de dados sem entender os vieses potenciais do modelo é uma vulnerabilidade metodológica real.
Propriedade intelectual e dados de pesquisa. Inserir dados de pesquisa, respostas de participantes, informações confidenciais em ferramentas de IA comercial levanta questões de privacidade e propriedade intelectual que a maioria dos pesquisadores não foi treinada para avaliar.
Por que as universidades estão atrasadas
O atraso não é por falta de inteligência ou boa vontade. É estrutural.
Currículos de pós-graduação são lentos para mudar. Eles passam por comissões, câmaras, aprovações que têm tempos próprios. Um campo tecnológico que muda em meses não combina bem com estruturas institucionais que mudam em anos.
Além disso, a maioria dos docentes que forma pesquisadores hoje não recebeu formação sobre IA ética em seus próprios doutorados. Eles estão aprendendo ao mesmo tempo que seus alunos, e o resultado é que a qualidade da orientação sobre esse tema depende muito do interesse individual do orientador.
Há também uma dimensão política: algumas instituições resistem a incorporar qualquer orientação positiva sobre IA porque equiparam isso a endossar a fraude acadêmica. Essa confusão entre “ensinar a usar bem” e “autorizar o uso desonesto” está paralisando iniciativas que poderiam ser úteis.
O que mudança real exigiria
Não é uma lista de soluções fáceis. Mas existem direções claras.
Disciplinas de competência em IA em programas de pós-graduação, não como optativas curiosidades, mas como parte da formação metodológica. Assim como todos os pesquisadores aprendem sobre ética em pesquisa com seres humanos, todos os pesquisadores deveriam ter espaço para aprender sobre uso responsável de IA.
Orientadores atualizados. Programas de desenvolvimento docente que incluam formação sobre IA não só em aspectos técnicos, mas em aspectos éticos, pedagógicos e de orientação. Orientadores que sabem o que podem e o que não podem recomendar para seus alunos são um ponto crítico.
Políticas institucionais com substância. Não apenas proibições e permissões, mas orientações sobre como declarar uso de IA em diferentes contextos, como lidar com ferramentas de análise de dados com IA, como verificar outputs antes de incorporá-los ao trabalho.
Diálogo entre universidades e periódicos. As políticas dos periódicos sobre IA estão evoluindo e as universidades precisam acompanhar isso ativamente, comunicando essas mudanças aos pesquisadores em formação.
O que outras experiências internacionais mostram
Não há um modelo resolvido em lugar nenhum do mundo, mas algumas experiências são interessantes para observar.
Universidades no Reino Unido, especialmente após as diretrizes do UK Research and Innovation (UKRI) sobre IA em pesquisa, começaram a incorporar módulos sobre uso responsável de IA nos programas de pesquisa de pós-graduação com mais velocidade do que a média global. A abordagem não é de proibição, é de letramento: o pesquisador precisa entender o que a ferramenta faz para poder decidir quando usá-la e como reportar esse uso.
Na América Latina, o cenário ainda é mais fragmentado. Iniciativas pontuais existem, principalmente em programas de ciência da computação e áreas afins, mas a conversa ainda não chegou de forma sistemática às ciências humanas e sociais, que são justamente as áreas onde os riscos de uso acrítico de IA para análise qualitativa são mais altos.
No Brasil, a Portaria CNPq 2.664/2026 foi um passo em direção a diretrizes mais claras sobre IA na pesquisa financiada por agência federal. Mas políticas de agência de fomento não substituem formação dentro dos programas. São complementares, não equivalentes.
A lição observada em contextos onde a mudança está acontecendo mais rapidamente é que a combinação de política institucional clara e formação ativa dentro dos programas é o que gera mudança real. Um sem o outro não é suficiente.
O que pesquisadores podem fazer enquanto esperam
A formação institucional está atrasada. Mas pesquisadores que querem operar com competência e integridade nesse ambiente não precisam esperar que as universidades os alcancem.
Explorar as políticas de IA dos periódicos que você pretende publicar é um ponto de partida concreto. A maioria dos periódicos de impacto publicou posições sobre o tema nos últimos dois anos. Lê-las ativamente é forma de se posicionar corretamente antes da submissão.
Discutir o tema abertamente no grupo de pesquisa, com o orientador, com os colegas, cria um ambiente em que as escolhas sobre IA são explicitadas em vez de escondidas. Isso protege todos no grupo.
E, quando possível, declarar o uso de IA mesmo quando ainda não é obrigatório. Criar o hábito da transparência antes de ser exigido é o caminho mais seguro.
A formação de pesquisadores para a era da IA ainda está sendo construída. O que você faz com as ferramentas disponíveis hoje, com quanto cuidado e transparência você opera, vai moldar o que essa formação vai precisar ser amanhã. Pesquisadores que desenvolvem essas práticas agora, mesmo sem estrutura institucional formal para apoiá-los, estão construindo o modelo que vai informar o que vem a seguir.
Você pode aprofundar aspectos específicos dessa conversa nos posts sobre integridade acadêmica na era da IA