IA & Ética

10 prompts que comprometem sua pesquisa com IA

Usar IA na pesquisa não é o problema. O problema são os prompts que parecem úteis mas produzem dados fabricados, argumentos falsos e risco ético real para o seu trabalho acadêmico.

ia-na-pesquisa etica-academica chatgpt inteligencia-artificial integridade-cientifica

O problema não é a IA. É o que você pede para ela fazer.

Vamos lá. A conversa sobre IA na pesquisa científica virou um campo minado. De um lado, quem diz que qualquer uso é desonesto. Do outro, quem usa tudo sem pensar. Nenhum dos dois extremos é útil.

O que importa é entender onde a IA pode ajudar de verdade e onde ela produz resultados que parecem certos mas são completamente inventados. Esse segundo caso não é óbvio. A IA mente com muita confiança e muito capricho de formatação. Se você não sabe onde os riscos estão, pode acabar usando material fabricado sem perceber.

Esses são dez tipos de prompts que você precisa parar de usar ou passar a usar com muito mais cautela.

1. “Encontre referências sobre [tema] para minha dissertação”

Esse é o mais perigoso e o mais comum. A IA generativa não acessa bases de dados acadêmicas em tempo real (salvo ferramentas específicas com esse recurso declarado). Quando você pede referências, ela gera títulos, autores e anos que parecem reais mas com frequência são fabricados.

O que fazer: use Google Scholar, Portal de Periódicos CAPES, Scopus, Web of Science ou a própria busca dentro do campo que você pesquisa. A IA pode ajudar a formular as palavras-chave para a busca, mas a busca em si precisa ser feita em fonte confiável.

2. “Quais são os dados/estatísticas sobre [fenômeno]?”

A IA vai te dar números com ar de autoridade e sem fonte. Às vezes os números até existem em algum lugar, mas sem a fonte, você não tem como verificar se o dado é real, atual ou se foi distorcido.

O que fazer: para dados factuais, vá direto à fonte. IBGE, INEP, Ministérios, organismos internacionais como OMS e UNESCO têm portais de dados abertos. Os números que você coloca no trabalho precisam ter fonte verificável.

3. “Escreva a introdução da minha dissertação sobre [tema]”

O problema aqui não é só a questão da autoria. É que a introdução que a IA vai escrever vai parecer acadêmica mas vai ser genérica, vai misturar perspectivas teóricas que talvez não sejam as da sua pesquisa, e vai criar afirmações que você vai precisar defender na defesa sem ter construído o raciocínio por trás delas.

O que fazer: use a IA para ajudar a organizar o raciocínio que já é seu. “Olha, minha pesquisa é sobre X, meu argumento central é Y, quais pontos devo cobrir na introdução?” é diferente de pedir o texto pronto.

4. “Explique a teoria de [autor] em duas frases para eu usar no trabalho”

Você vai receber uma síntese simplificada que pode distorcer o pensamento do autor. Usar essa síntese sem ter lido o original é um risco real, especialmente em áreas onde as nuances teóricas importam muito.

O que fazer: a IA pode ajudar a entender antes de você ler o original. Use-a como uma primeira aproximação, não como a referência final. Depois você lê a fonte.

5. “Verifique se minha metodologia está correta”

A IA pode dar um feedback superficial sobre coerência interna, mas ela não conhece seu campo, não sabe quais são as discussões metodológicas atuais na sua área específica, e pode validar escolhas que especialistas da área questionariam.

O que fazer: para validação metodológica real, o orientador e a literatura especializada da sua área são insubstituíveis. Use a IA para checar clareza na descrição da metodologia, não para validar as escolhas metodológicas em si.

6. “Resuma esse artigo para mim”

O resumo gerado pela IA pode omitir nuances importantes, reinterpretar passagens e às vezes inverter a posição do autor. Para um artigo que vai entrar como referência central do seu trabalho, resumo de IA não substitui a leitura.

O que fazer: leia o resumo original e a conclusão primeiro. Use a IA para ajudar a entender trechos específicos que ficaram confusos depois da leitura, não para substituir a leitura.

7. “Crie uma hipótese de pesquisa para meu projeto”

A hipótese precisa emergir da literatura que você leu e do problema que você identificou. Uma hipótese gerada pela IA sem esse processo vai ser desconectada do seu trabalho real e vai criar problemas na justificativa metodológica.

O que fazer: chegue à IA com o problema que você identificou, a lacuna na literatura que encontrou e as variáveis que quer investigar. Aí o diálogo pode ajudar a refinar a formulação, mas a substância precisa ser sua.

8. “Responda as perguntas do meu questionário de pesquisa como se fosse um participante”

Isso gera dados sintéticos que não representam nenhuma perspectiva humana real. Usar esses dados como se fossem dados de pesquisa é fraude, independente da intenção.

O que fazer: o pré-teste do questionário precisa ser feito com pessoas reais, mesmo que informalmente. A IA pode ajudar a revisar a clareza das perguntas, identificar ambiguidades e sugerir melhorias na formulação.

9. “Escreva a discussão dos meus resultados”

A discussão exige que você coloque os seus resultados em diálogo com a literatura que você leu, com as perguntas que o seu campo faz e com as implicações que você mesmo identificou. Isso não pode ser delegado para uma ferramenta que não viu a sua pesquisa, não leu os seus dados e não conhece o seu campo.

O que fazer: use a IA para organizar a estrutura da discussão, identificar tópicos que você pode explorar, ou verificar se a lógica argumentativa de um parágrafo específico está clara. O conteúdo precisa ser seu.

10. “Faça parecer que fui eu que escrevi esse texto”

Esse prompt coloca a intenção em palavras. Quando você chega nesse ponto, o problema não é mais de metodologia de uso da IA. É de honestidade com o processo de pesquisa.

O que fazer: use a IA para melhorar o que você escreveu, não para substituir o que você precisaria ter escrito.

O problema das alucinações que parecem referências reais

Tem um fenômeno específico chamado de alucinação de IA que vale entender antes de qualquer uso em contexto acadêmico. A IA generativa, quando não sabe a resposta para uma pergunta factual, não diz “não sei”. Ela gera uma resposta que parece plausível com base nos padrões que aprendeu.

No caso de referências bibliográficas, isso significa que ela pode gerar um título perfeitamente formatado, com um nome de autor real da área, com ano e volume de revista que existem de verdade, mas o artigo em si nunca foi publicado. Quem lê superficialmente não percebe. Parece real. Tem o ar de real.

Isso já levou pesquisadores a submeter trabalhos com referências que revisores detectaram como inexistentes. Em alguns casos, isso resultou em rejeição imediata. Em casos mais graves, reputação comprometida.

A regra prática é simples: antes de citar qualquer referência que veio de uma IA, você precisa verificar se ela existe de verdade. Copie o título no Google Scholar. Localize o artigo. Confirme o DOI. Só depois usa.

Se você não consegue encontrar a referência por nenhuma via, ela provavelmente não existe.

O que fica claro depois dessa lista

Olha, o padrão é simples. A IA é boa em ajudar com forma, com clareza, com estrutura, com reformulação. Ela é ruim e perigosa quando você pede que ela gere conteúdo factual, teórico ou original que deveria vir do seu próprio processo de pesquisa.

A linha não está no uso ou não uso da ferramenta. Está em entender o que a ferramenta pode fazer com confiança e o que ela fabrica com aparência de confiança.

O Método V.O.E. começa com Verificação justamente porque a lógica de checar antes de usar é central na pesquisa honesta. Com IA, essa verificação é ainda mais importante. Nenhuma saída de chatbot entra no seu trabalho sem você ter verificado de onde vem e se é real.

Veja também: como usar IA para escrita acadêmica sem plagiar e ferramentas de IA que são seguras para pesquisa.

Perguntas frequentes

Por que alguns prompts para IA são problemáticos na pesquisa científica?
Certos prompts levam a IA a gerar informações que parecem confiáveis mas são fabricadas, como referências bibliográficas inventadas, estatísticas sem fonte ou afirmações científicas sem base. Usar esses resultados no trabalho acadêmico sem verificação compromete a integridade da pesquisa.
Posso pedir para a IA encontrar referências bibliográficas para mim?
Não diretamente. A IA generativa fabrica referências com frequência, criando títulos, autores e anos plausíveis que não existem. Para busca bibliográfica real, use Google Scholar, Scopus, Web of Science ou o Portal de Periódicos CAPES.
Como usar IA na pesquisa de forma ética e segura?
Use a IA para tarefas onde você pode verificar o resultado: revisão de clareza textual, reformulação de parágrafos, organização de ideias que já são suas, feedback sobre estrutura argumentativa. Nunca use para gerar conteúdo factual que será inserido no trabalho sem verificação independente.
<