Exemplo Prático: Projeto de Pesquisa com IA Ética
Veja como integrar IA em um projeto de pesquisa de forma responsável, com transparência e sem abrir mão do rigor científico.
IA na pesquisa: o que fazer com ela e o que não delegar
Vamos lá. Tem muita confusão sobre como usar IA em pesquisa científica. De um lado, pesquisadoras que evitam qualquer contato porque acham que é trapaça. De outro, quem usa para tudo sem se preocupar com as implicações éticas. Os dois extremos são problemáticos.
O que você vai ver aqui é diferente: um exemplo concreto de como integrar IA num projeto de pesquisa de forma responsável. Com escolhas claras, com transparência, e sem abrir mão do que é mais importante em qualquer pesquisa: o seu raciocínio.
O que IA pode e o que não pode fazer numa pesquisa
Antes do exemplo, vale ter essa distinção bem clara na cabeça.
IA pode auxiliar com coisas como:
Organização e triagem de literatura. Você tem 200 artigos para ler e precisa entender quais são centrais para o seu tema. Ferramentas como Research Rabbit, Elicit ou Connected Papers ajudam a mapear o campo, identificar autores recorrentes e ver redes de citações. Isso não substitui a leitura, mas direciona ela.
Revisão de clareza e fluidez textual. Você escreveu um trecho e quer saber se está claro. Pedir para uma IA apontar onde o raciocínio ficou confuso ou onde a frase está longa demais é uso legítimo. É parecido com pedir para um colega ler e dar feedback.
Sistematização de dados qualitativos. Em pesquisas que envolvem análise de entrevistas ou documentos, a IA pode ajudar a categorizar trechos por tema, identificar padrões superficiais e organizar o material antes da sua análise aprofundada.
IA não pode fazer:
Análise e interpretação. A interpretação dos dados é sua. O que os dados significam, que padrões são relevantes, que conclusões se sustentam. Isso não pode ser terceirizado.
Formulação teórica. Construir o referencial teórico, conectar autores, identificar lacunas na literatura. Isso exige que você leia de verdade e pense de verdade.
Tomada de posição argumentativa. Sua dissertação ou tese tem um argumento central que é seu. A IA não tem pesquisa própria, não tem contexto do campo, não tem posicionamento intelectual. Ela produz texto estatisticamente provável, não argumento fundamentado.
Exemplo prático: dissertação em Ciências Sociais
Imagine uma mestranda em Sociologia pesquisando percepções de professores do ensino público sobre desigualdade educacional. Ela realizou 15 entrevistas semiestruturadas. Aqui está como ela poderia usar IA com responsabilidade:
Fase 1: Revisão de literatura
Ela usou o Elicit para buscar artigos sobre desigualdade educacional e percepções docentes. A ferramenta retornou um conjunto de artigos com resumos estruturados e indicou quais eram mais citados. Com isso, ela conseguiu montar uma lista inicial de leitura em menos tempo, em vez de fazer buscas manuais em bases de dados por horas.
O que ela fez com essa lista? Leu os artigos. A IA não leu por ela. Ela organizou a revisão, mas a leitura e a análise crítica foram dela.
Fase 2: Organização das entrevistas
Após transcrever as entrevistas (ela usou Whisper para transcrição automática, conferida depois), ela colou os trechos num modelo de linguagem pedindo que identificasse quais trechos falavam de meritocracia, quais falavam de estrutura social, quais expressavam resignação. Isso foi um primeiro mapeamento.
Depois ela revisou esse mapeamento inteiramente. Encontrou categorias que a IA errou. Encontrou nuances que a IA não captou. Reorganizou. Criou categorias novas que não estavam na triagem inicial. A IA fez o trabalho grosso de separação. A análise foi dela.
Fase 3: Escrita
No processo de escrita, ela usou IA para duas coisas: pedir feedback sobre clareza de parágrafos que achava confusos, e pedir sugestões de palavras quando ficava travada numa frase. Nada do conteúdo veio da IA. Nenhum dado, nenhum argumento, nenhuma conclusão.
Como ela reportou isso na metodologia:
“Para organização preliminar das entrevistas, foi utilizado um modelo de linguagem de grande porte (GPT-4) para categorização inicial dos trechos por tema, com revisão e reorganização posteriores pela pesquisadora. Para transcrição das entrevistas, foi utilizado o modelo Whisper, com conferência manual de cada transcrição. Ferramentas de IA não foram utilizadas para análise, interpretação ou redação de conteúdo substantivo desta pesquisa.”
Claro. Específico. Honesto.
O que torna esse uso ético
Três princípios guiam esse tipo de integração responsável:
Transparência. Você informa o que usou, para quê e como. Não esconde. Se alguém perguntar, você consegue explicar com detalhes.
Responsabilidade autoral. Você é autora da pesquisa. Isso significa que você leu, pensou, analisou, concluiu. A IA foi uma ferramenta auxiliar em tarefas específicas, não uma coautora.
Verificação. Tudo que a IA produziu, você conferiu. Nenhum resultado foi aceito sem revisão. Isso é importante porque modelos de linguagem cometem erros, simplificam em excesso e às vezes produzem informações incorretas com aparência de autoridade.
O problema de não ser transparente
Tem pesquisadoras que usam IA extensivamente e não declaram nada. Isso é um problema real e crescente.
Não porque o uso seja necessariamente errado. Mas porque a falta de transparência contamina a confiança no processo científico. Se você usa IA e não declara, e alguém descobre, o questionamento vai ser sobre toda a pesquisa, não só sobre aquele trecho.
E mais: a academia está desenvolvendo normas para isso agora, em tempo real. Orientadores, bancas e periódicos estão começando a exigir declaração de uso de IA. Estar à frente disso, construindo práticas transparentes desde agora, é vantagem, não desvantagem.
Por onde começar se você quer fazer isso direito
Se você quer integrar IA na sua pesquisa com responsabilidade, o caminho mais honesto é esse:
Primeiro, converse com sua orientadora. Antes de qualquer coisa. Não depois, não quando surgir a pergunta na banca. Antes. “Estou pensando em usar IA para X. O que você acha? Como devo declarar?” Essa conversa resolve muito.
Segundo, documente conforme usa. Cada vez que recorrer a uma ferramenta de IA, anote: qual ferramenta, para quê, o que fez com o resultado. Isso facilita muito quando for escrever a metodologia.
Terceiro, mantenha a separação clara. Organização e revisão de clareza são funções auxiliares. Análise, interpretação, argumentação e conclusão são suas. Se essa fronteira ficar turva, recue.
O Método V.O.E. trabalha justamente com essa ideia: usar ferramentas para ganhar eficiência nos processos periféricos, liberando energia mental e tempo para o que importa mais na pesquisa, que é pensar.
Outro exemplo: pesquisa quantitativa em Educação
Para variar a perspectiva, pense numa doutoranda em Educação que analisa dados de desempenho escolar de municípios ao longo de dez anos. Ela tem planilhas grandes, variáveis muitas, e precisa explorar padrões antes de formular hipóteses.
Ela usou IA generativa para uma coisa específica: ajudar a escrever scripts de análise exploratória em Python. Descreveu o que precisava em linguagem natural, a ferramenta gerou um código inicial, ela adaptou, testou, corrigiu.
Isso é uso legítimo? Sim. Ela não delegou a interpretação. Ela delegou parte da implementação técnica de uma ferramenta que ainda estava aprendendo a usar. O raciocínio estatístico era dela. A escolha de quais variáveis explorar era dela. A interpretação dos padrões encontrados era dela.
O que ela colocou na metodologia: “Para análise exploratória inicial dos dados, foram utilizados scripts desenvolvidos com auxílio de modelo de linguagem (GPT-4), revisados e adaptados pela pesquisadora. A análise estatística inferencial foi realizada com uso do software R, versão 4.3.”
Especificidade. Distinção entre o que foi auxiliado e o que foi feito diretamente. Transparência sobre quem tomou as decisões analíticas.
A questão do plágio e da autoria
Uma preocupação legítima que aparece muito: e se a banca ou o periódico detectar que partes do texto “parecem IA”?
Essa preocupação é real, mas frequentemente mal enquadrada. O problema não é o estilo do texto. O problema é a autoria do conteúdo. Se você escreveu, revisou, editou extensivamente e as ideias são suas, o fato de ter usado uma ferramenta de revisão gramatical ou de clareza não torna o trabalho menos seu.
O que é problema é quando o conteúdo intelectual, a análise, o argumento, não é seu. Isso existia antes da IA, com outras formas de trabalho não declarado. A IA tornou essa fronteira mais visível e mais discutida, o que é positivo.
Seu trabalho, como pesquisadora, é ser honesta sobre o que é seu e o que não é. Isso não mudou.
Uma pergunta para fechar
Você sabe, agora, usar IA. A questão mais importante não é se é permitido. É: o que você está construindo como pesquisadora?
Uma pesquisa feita com auxílio de ferramentas, com transparência e rigor metodológico, é pesquisa de qualidade. Uma pesquisa onde as conclusões foram geradas por uma máquina não é pesquisa. É delegação do pensamento científico.
A diferença é você. E isso, nenhuma IA substitui. Faz sentido?