IA na Coleta de Dados: Guia Ético para Pesquisadores
Saiba como usar IA na coleta de dados da sua pesquisa com ética e responsabilidade, sem comprometer sua integridade científica.
A IA chegou à coleta de dados. E agora?
Olha só: a inteligência artificial já entrou pela porta da frente em quase todas as etapas da pesquisa acadêmica. Revisão de literatura, análise de dados, escrita científica, revisão de texto… E a coleta de dados? Esse terreno ainda gera muita dúvida, e compreensão é o primeiro passo para agir com segurança.
Vamos lá. Usar IA na coleta de dados não é automaticamente errado. Também não é automaticamente seguro. Depende do quê você usa, como usa e, principalmente, se você sabe explicar tudo isso de forma transparente na sua metodologia.
Este post não vai te dar um tutorial passo a passo de ferramentas, porque o como-fazer muda a cada mês. O que vai te acompanhar por mais tempo é o entendimento do porquê certos usos são éticos e outros não. E é disso que vamos falar.
O que a IA pode (e o que ela não pode) na coleta de dados
A maioria das pesquisadoras que me procura com dúvidas sobre esse tema está em um de dois cenários. Ou usa IA sem saber exatamente o que está fazendo, com aquela sensação de “será que pode?”. Ou evita completamente por medo, perdendo oportunidades legítimas de agilizar o trabalho.
Os dois extremos têm um custo. Vamos pensar juntas no que a IA efetivamente pode fazer nessa etapa.
Auxílio na criação de instrumentos. Você pode usar IA para gerar uma primeira versão de roteiro de entrevista, questionário ou formulário de observação. Mas a revisão crítica, a validação e a adequação ao seu contexto de pesquisa são suas. A IA não conhece suas participantes, seu campo, sua pergunta de pesquisa com toda a sua especificidade.
Triagem de documentos e fontes. Em pesquisas documentais ou quando você trabalha com grande volume de materiais, ferramentas de IA podem ajudar a fazer uma triagem inicial, identificar padrões ou sinalizar documentos relevantes. Mas a leitura crítica e a interpretação continuam sendo humanas.
Transcrição automática de áudios. Já é amplamente aceita e, em muitos contextos, declarada normalmente na metodologia. O ponto de atenção é verificar a transcrição manualmente, pois erros de compreensão podem comprometer a fidelidade dos dados.
Digitalização e OCR de documentos físicos. Para pesquisa histórica ou documental, ferramentas com OCR (reconhecimento óptico de caracteres) auxiliam na digitalização de fontes primárias. Também precisa de revisão, mas é um apoio legítimo.
O que a IA não faz e não deveria fazer é substituir o contato direto com participantes humanos. A entrevista é relação. A observação participante é presença. O grupo focal é escuta ativa e mediação. Não existe IA que faça isso no seu lugar com integridade metodológica.
O problema está na opacidade, não na ferramenta
Quando pesquisadoras me perguntam “posso usar ChatGPT para isso?”, minha primeira resposta é sempre uma contra-pergunta: você consegue explicar isso na sua metodologia sem sentir que está escondendo algo?
Essa é a bússola mais confiável para navegar nessas situações. Não é a ferramenta que é ética ou antiética. É o uso que você faz dela e a transparência com que você documenta esse uso.
O grande problema que vejo em pesquisas que chegam para banca com uso de IA na coleta é justamente a opacidade. A pesquisadora usou, mas não declarou. Ou declarou de forma vaga demais. “Utilizou-se recursos tecnológicos para apoiar a coleta” não diz nada. Diz muito menos do que deveria.
O CNPq, diversas universidades brasileiras e diretrizes de periódicos internacionais caminham na mesma direção: transparência é obrigatória. Não opcional. Não uma boa prática. É pré-requisito para integridade.
Se o seu Comitê de Ética (CEP) aprovou um protocolo onde a coleta seria feita de determinada forma e você introduziu IA no processo, precisa avaliar se isso exige emenda ao protocolo. Em muitos casos, exige. Não pule essa etapa achando que é detalhe.
Consentimento informado na era da IA
Esse é um ponto que poucas pesquisadoras consideram no momento do planejamento, mas que pode se tornar um problema sério depois.
Se você usa IA em alguma etapa da coleta, seus participantes precisam saber. Não necessariamente em detalhes técnicos, mas de forma compreensível. O TCLE (Termo de Consentimento Livre e Esclarecido) deve refletir os procedimentos reais da pesquisa.
Se você vai transcrever entrevistas com um software de IA, o participante precisa saber que o áudio passará por essa ferramenta. Se você vai usar uma plataforma para organizar as respostas de um questionário, isso precisa estar claro. Não é burocracia vazia. É respeito à autonomia das pessoas que confiam a você suas informações.
O princípio ético que rege essa discussão é o mesmo de sempre: as participantes têm direito de saber exatamente como seus dados serão tratados. A IA não muda esse princípio. Ela adiciona um elemento novo que precisa ser contemplado.
Como documentar o uso de IA na metodologia
Ser transparente não é difícil quando você sabe o que documentar. Aqui está o que a sua seção de metodologia precisa incluir quando houver uso de IA na coleta:
Qual ferramenta você usou. O nome do software ou plataforma, de forma específica. “Uma IA” não serve.
Para que finalidade exata. “Auxiliou na triagem de documentos para a análise documental” é diferente de “apoiou a pesquisa”. Seja precisa.
Como os resultados foram verificados. Toda saída de IA que entra na sua pesquisa precisa passar por revisão humana. Deixe isso explícito.
Que decisões continuaram sendo humanas. Deixe claro que a interpretação, a análise e as conclusões são suas.
Esse registro protege você. Em caso de questionamentos na banca ou na submissão do artigo, você tem resposta para dar.
Riscos reais que pesquisadoras ignoram
Falar só dos benefícios seria desonesto. Existem riscos concretos no uso de IA na coleta que precisam estar no seu radar.
Contaminação de dados. Ferramentas de IA generativa podem introduzir viés nas etapas em que você pede para ela ajudar a formular perguntas ou interpretar respostas parciais. Se a IA “completa” lacunas que deveriam ser preenchidas pelos participantes, você não tem mais dados reais.
Problemas com privacidade. Quando você insere dados de participantes em plataformas de IA, precisa verificar as políticas de privacidade dessas ferramentas. Em pesquisas com dados sensíveis, isso pode ser um problema sério do ponto de vista ético e legal.
Confiança excessiva nos resultados. Transcrições automáticas erram. Triagens de documentos por IA perdem nuances. Se você não revisa com cuidado, esses erros entram na sua pesquisa como se fossem dados fidedignos.
Dependência sem compreensão. Usar uma ferramenta que você não entende o suficiente para explicar é um risco metodológico. Se a sua orientadora, a banca ou um revisor perguntar como a ferramenta funciona e você não souber responder, é um problema.
O Método V.O.E. e a coleta de dados
A fase de coleta de dados é, dentro do Método V.O.E., um momento crítico que exige orientação muito clara. A Velocidade não pode comprometer a qualidade dos dados. A Orientação significa ter um plano metodológico sólido antes de sair para campo. E a Execução exige atenção às decisões que tomamos no processo, incluindo as ferramentas que escolhemos usar.
Quando introduzimos IA nessa etapa, precisamos que ela sirva à pesquisa, não o contrário. Isso significa que a ferramenta está a serviço do rigor, não como atalho para pular etapas que são constitutivas do método.
Pesquisadoras que usam IA de forma responsável na coleta relatam ganho de tempo em etapas administrativas, organização mais eficiente e menos retrabalho. As que usam sem critério relatam retrabalho aumentado na análise, questionamentos na banca e, em casos mais sérios, problemas com o CEP.
O que fazer antes de usar IA na coleta
Antes de incorporar qualquer ferramenta de IA no seu processo de coleta, passe por esse checklist:
Você consegue explicar o uso na sua metodologia com clareza? Se a resposta for não, ainda não está pronta para usar.
Seu protocolo no CEP contempla esse uso? Se não, avalie se precisa de emenda.
Seus participantes serão informados de forma compreensível? Revise o TCLE se necessário.
A ferramenta tem política de privacidade compatível com a sensibilidade dos seus dados? Verifique antes de inserir qualquer informação de participantes.
Você tem um processo de revisão humana das saídas da IA? Defina esse processo antes de começar.
A pesquisadora que entende é a que não se perde
No fim das contas, o que diferencia um uso ético de um uso problemático da IA na coleta de dados não é a ferramenta em si. É a pesquisadora por trás dela.
A inteligência artificial é uma ferramenta poderosa. Como toda ferramenta poderosa, pode ser usada com maestria ou de forma descuidada. O que determina qual dos dois caminhos você vai percorrer é o seu entendimento sobre o processo, sobre a ética da pesquisa com seres humanos e sobre o que significa produzir conhecimento com integridade.
Se você ainda tem dúvidas sobre onde traçar a linha no seu próprio projeto, leve essas questões para a orientação. Não existe pergunta idiota quando o assunto é integridade científica. Existe, sim, o custo de não perguntar.
Quer aprofundar sua compreensão sobre uso responsável de IA na academia? Explore os outros artigos da série de IA e Ética aqui no blog.