IA & Ética

IA como Co-Orientador Virtual: Mitos e Verdades

A ideia de usar IA como co-orientador circula muito na pós-graduação. Entenda o que ela pode fazer de verdade, o que não pode, e os riscos de confundir as duas coisas.

ia-na-pesquisa orientacao ia-etica mestrado doutorado

Uma metáfora que ficou maior do que deveria

Vamos lá. Existe uma ideia que virou meme na pós-graduação nos últimos dois anos: usar a IA como “co-orientador virtual”. O ChatGPT vai responder suas dúvidas de madrugada. O Claude vai revisar seu argumento sem julgamento. Nenhum dos dois vai te deixar esperando três semanas por um retorno.

Tem algo verdadeiro nisso. E tem algo que pode dar muito errado.

Este post existe para separar as duas coisas.

O que a ideia de “co-orientador virtual” captura de verdade

A popularidade da metáfora não é acidente. Ela está respondendo a um problema real: a orientação no Brasil frequentemente não funciona bem.

Orientadores sobrecarregados, com dezenas de orientandos. Encontros espaçados demais. Feedback superficial ou simplesmente inexistente. Orientandas que ficam meses sem saber se o que estão fazendo está indo na direção certa.

Nesse contexto, a ideia de ter um interlocutor disponível 24 horas, que não fica impaciente, que responde a qualquer hora, que pode ler seu texto e devolver comentários em segundos, tem apelo óbvio.

E as ferramentas realmente fazem algumas dessas coisas bem.

O que a IA faz bem nesse contexto

Revisar clareza e coesão de texto. Você escreve, apresenta para a ferramenta, e ela aponta onde o argumento não está fluindo, onde a frase ficou confusa, onde uma transição está faltando. Isso não é orientação de conteúdo. É revisão de forma, e a IA é razoavelmente boa nisso.

Ajudar a formular perguntas com mais precisão. Você tem uma intuição vaga sobre o que quer pesquisar e pede para a ferramenta ajudar a transformar isso em uma pergunta de pesquisa mais delimitada. A IA pode oferecer formulações diferentes que ajudem você a encontrar a que captura melhor o que você está buscando.

Identificar inconsistências internas. Você apresenta um argumento e pede que a ferramenta aponte onde a lógica parece estar quebrando. Isso pode ser útil antes de enviar o texto ao orientador real.

Organizar feedback recebido. Você anotou muita coisa na reunião com o orientador e está com dificuldade de organizar o que foi dito. A IA pode ajudar a estruturar essas anotações em categorias de ação.

Funcionar como interlocutor de brainstorming. Você está tentando desenvolver um argumento e precisa testar ideias em voz alta, por assim dizer. A ferramenta pode responder, questionar, oferecer perspectivas alternativas.

Tudo isso tem valor real. E nenhuma dessas funções é “co-orientação” no sentido técnico.

O que a IA não faz e não pode fazer

Aqui é onde a metáfora começa a criar problemas.

A IA não conhece o seu campo de dentro. Ela tem acesso a uma quantidade enorme de texto acadêmico, mas não tem o conhecimento situado que o orientador humano tem: quem são os pesquisadores relevantes agora, quais são as controvérsias ativas, o que foi descartado e por quê, o que a banca daquela área valoriza, quais são as lacunas que ainda não foram exploradas. Esse conhecimento não existe em forma de texto estático consultável. Ele emerge de imersão contínua no campo.

A IA não acompanha sua trajetória. Um bom orientador percebe padrões no seu trabalho ao longo do tempo: onde você tende a ser superficial, onde você tem tendência de complicar em excesso, como seu raciocínio evolui. Esse olhar longitudinal é parte do que torna a orientação formativa, não apenas avaliativa.

A IA não tem julgamento sobre relevância no momento histórico da sua disciplina. O que vale como contribuição original em uma área, em um momento específico, não é determinável por padrões estatísticos de texto publicado. É determinado por pessoas imersas no debate vivo da área.

A IA não tem compromisso com sua formação. O orientador é responsável pela sua formação como pesquisadora. A ferramenta não tem essa dimensão de responsabilidade e de cuidado.

O risco específico de substituir orientação por IA

Tem um risco que merece atenção particular: produzir um trabalho que parece internamente consistente mas está desconectado do debate real do campo.

Quando você usa a IA como principal interlocutor do desenvolvimento do seu argumento, o trabalho vai ficando coerente consigo mesmo. Os argumentos se encaixam. O texto flui. A lógica interna está razoável.

Mas a IA não vai te dizer que o argumento que você está construindo foi descartado na literatura especializada nos anos 1990. Não vai apontar que existe um debate ativo sobre exatamente essa questão nos últimos periódicos da área, com uma perspectiva que contradiz o que você está desenvolvendo. Não vai te avisar que a metodologia que você está adotando foi criticada por razões específicas que sua área considera relevantes.

Esse enraizamento no debate real do campo é o que diferencia uma pesquisa acadêmica de um exercício intelectual bem estruturado. E ele precisa vir da imersão na literatura e do contato com pessoas que estão dentro do campo, não de uma ferramenta.

Quando o problema é que a orientação não existe de fato

Preciso dizer algo que fica implícito na maioria das conversas sobre esse tema: às vezes as pessoas buscam a IA como substituta da orientação porque a orientação que deveriam ter não está funcionando.

Se o seu orientador não responde, não lê seus textos, não dá feedback, não aparece para as reuniões, você tem um problema de orientação que a IA não vai resolver. A ferramenta pode ajudar a avançar no trabalho no curto prazo, mas não vai compensar a ausência de alguém que conhece o seu campo e está comprometido com a sua formação.

Nesse caso, o problema precisa ser endereçado de frente: conversa direta com o orientador, busca de co-orientação formal, mudança de orientador se necessário, acionamento das instâncias do programa. São caminhos difíceis, mas são os caminhos certos.

Como usar a IA de forma complementar, não substituta

A combinação que funciona é usar a IA para o que ela faz bem, sem abrir mão do que só a orientação humana oferece.

Você pode usar a ferramenta para revisar seu texto antes de enviar ao orientador. Para organizar suas dúvidas antes de uma reunião. Para testar a clareza de um argumento. Para brainstormar possibilidades que você depois vai filtrar com critério.

Mas as decisões que importam — sobre o referencial teórico, sobre as escolhas metodológicas, sobre o que vale como contribuição no seu campo — precisam passar pelo orientador e pela sua própria leitura aprofundada da literatura.

A IA como ferramenta complementar é útil. A IA como substituta da orientação é uma ilusão que tem custo.

Fechando: a metáfora serve se for entendida com precisão

Chamar a IA de “co-orientador virtual” pode ser uma forma de dizer que ela oferece um tipo de interlocução que a orientação formal às vezes não oferece. Nesse sentido restrito, há algo verdadeiro.

Mas se a metáfora leva a tratar a ferramenta como capaz de fazer o que só um orientador humano com experiência no campo pode fazer, ela se torna um problema.

Use a IA. Ela é útil. Mas saiba o que ela está fazendo por você e o que está ficando de fora. Faz sentido?

Perguntas frequentes

A IA pode substituir o orientador na pós-graduação?
Não. Orientação acadêmica envolve conhecimento situado do campo, rede de relações científicas, julgamento sobre o que é relevante em um contexto histórico específico e acompanhamento longitudinal do desenvolvimento da pesquisadora. Nada disso é reproduzível por uma ferramenta de IA. O que a IA pode fazer é complementar pontos específicos, como revisar argumentos, checar coesão de texto ou ajudar a formular perguntas, mas não substituir a relação de orientação.
Quais tarefas da orientação a IA pode ajudar a complementar?
IA pode ajudar a identificar lacunas argumentativas em um texto, reformular perguntas de pesquisa de forma mais precisa, revisar clareza e coesão, sugerir estrutura para partes do trabalho e verificar consistência interna dos argumentos. Ela também pode ajudar a processar e organizar feedback recebido do orientador real. Todas essas são funções auxiliares, não de orientação em si.
Usar IA no lugar da orientação tem riscos específicos?
Sim. O principal é desenvolver um trabalho que parece consistente internamente mas está desconectado do debate real do campo. A IA não conhece o contexto específico da sua área, os autores com quem você realmente precisa dialogar, as controvérsias ativas no momento. Um trabalho construído com IA como principal interlocutor corre o risco de ser academicamente isolado, sem enraizamento real na literatura que importa.
<