Proibir IA na Academia É a Resposta Errada: Por Quê
Instituições que proíbem IA na pesquisa e no ensino estão tomando a decisão mais fácil, não a mais correta. Entenda minha posição sobre isso.
A proibição é a solução mais fácil, não a mais inteligente
Vamos lá. Sempre que uma tecnologia nova entra em cena de forma rápida e perturbadora, uma das respostas institucionais mais comuns é a proibição. E com inteligência artificial, não foi diferente.
Desde que ferramentas como o ChatGPT se tornaram amplamente acessíveis, centenas de instituições de ensino em todo o mundo reagiram com alguma versão da mesma política: proibido usar. Em trabalhos acadêmicos, provas, dissertações. Às vezes em tudo.
Eu entendo o impulso. Realmente entendo. Mas vou dizer o que penso: proibir IA de forma genérica é a resposta mais fácil, não a mais correta. E “mais fácil” na academia raramente é o mesmo que “mais responsável”.
O que está por trás da decisão de proibir
Quando uma instituição proíbe IA, ela está partindo de uma preocupação legítima: o uso de IA para substituir o trabalho intelectual do estudante ou pesquisador. Copiar um texto gerado por IA e entregar como próprio é desonestidade acadêmica. Isso é verdadeiro e precisa ser levado a sério.
Mas a proibição genérica resolve isso? Não resolve. Ela trata sintomas em vez de causas.
O problema real não é a existência de IA. O problema é a estrutura de avaliação que incentiva a produção de texto como fim em si mesmo, sem processo visível. Quando a prova é um artigo de 5 páginas entregue na semana final do semestre, sem rascunhos intermediários, sem debate, sem defesa oral, você está criando as condições para que qualquer ferramenta substitutiva seja atraente. E aí proibir IA só muda o nome da cola.
A pergunta que as instituições deveriam estar fazendo não é “como bloqueamos o ChatGPT?” mas “o que queremos que aconteça no processo de aprender?” São perguntas muito diferentes.
A diferença entre uso substitutivo e uso complementar
Olha só: nem todo uso de IA em contexto acadêmico é problemático. Existe uma diferença fundamental entre o que podemos chamar de uso substitutivo e uso complementar.
O uso substitutivo é aquele em que a IA faz o trabalho intelectual no lugar do pesquisador. Gera o argumento, constrói o raciocínio, escreve a conclusão. O pesquisador contribui pouco ou nada com o pensamento original. Esse uso é eticamente problemático porque compromete o desenvolvimento do próprio pesquisador e entrega como autoria algo que não é.
O uso complementar é diferente. Usar IA para fazer uma busca bibliográfica mais abrangente, para revisar a gramática de um texto já escrito, para organizar referências, para traduzir um trecho, para transcrever uma entrevista, para checar se um argumento tem lógica coerente. Esses usos ampliam a capacidade do pesquisador sem substituir o pensamento.
A linha entre os dois não é sempre nítida. E sim, existe zona cinzenta. Mas a resposta para zonas cinzentas não é apagar a distinção, é aprender a navegar dentro dela com critério.
O que a proibição não consegue fazer
Vou ser direta: uma proibição institucional de IA não vai funcionar da forma que os gestores imaginam.
Primeiro, porque a IA está integrada em ferramentas que já são consideradas aceitáveis. Corretores de texto, plataformas de tradução, ferramentas de gestão bibliográfica. Onde exatamente a proibição começa e termina? Usar o Google para pesquisar é diferente de usar o Perplexity AI? O Grammarly é aceitável mas o ChatGPT não? Essas linhas são cada vez mais difíceis de traçar.
Segundo, porque proibições sem educação não mudam comportamento, elas só mudam o risco percebido. Estudantes vão continuar usando ferramentas disponíveis, especialmente quando a pressão por entrega é alta e o suporte para desenvolver as habilidades reais é insuficiente. A diferença é que vão fazer isso escondido.
Terceiro, porque pesquisadores e docentes no mundo real usam IA. Médicos usam IA para diagnóstico. Engenheiros usam para simulação. Cientistas de dados usam para análise. Formar estudantes para operar num mundo profissional onde IA é onipresente, dizendo a eles que na academia é proibido, é uma contradição pedagógica séria.
O que eu acho que deveria acontecer em vez disso
Tenho posição clara aqui: o caminho é a formação e a distinção, não a proibição genérica.
Formação significa ensinar o que IA faz bem e o que faz mal. Onde os modelos de linguagem inventam (e eles inventam, com confiança). Onde a busca semântica ajuda e onde prejudica. Como verificar informações geradas por IA antes de usar. Como referenciar o uso de ferramentas de IA de forma transparente.
Distinção significa criar políticas que diferenciem tipos de uso. “Você pode usar IA para organizar sua lista de referências, mas não para escrever sua revisão de literatura” é uma política mais sofisticada e mais honesta do que “IA proibida em qualquer contexto”.
Redesenho das avaliações significa criar tarefas onde o processo fica visível. Seminários, defesas orais, portfólios com rascunhos intermediários, reflexões metodológicas. São formatos que valorizam o desenvolvimento intelectual em vez de apenas o produto final, e que dificultam o uso substitutivo de forma muito mais efetiva do que qualquer proibição.
A posição que eu defendo
Pesquisadoras que estudam escrita acadêmica sabem que o processo de escrita é o processo de pensar. Você não escreve depois que pensa: você pensa escrevendo. Quando uma ferramenta assume o texto, ela assume o pensamento. E aí o que resta de desenvolvimento intelectual?
É por isso que me preocupo com o uso substitutivo. Não porque IA seja inerentemente má. Mas porque o desenvolvimento de um pesquisador depende de ele enfrentar a dificuldade de construir um argumento, de organizar evidências, de defender uma posição. Essas habilidades se constroem na luta com o texto, não no resultado final.
O Método V.O.E. que trabalho parte de uma convicção parecida: que a escrita não é um produto que você entrega, é uma prática que você desenvolve. Ferramentas podem apoiar essa prática. Não podem substituí-la.
Então minha posição é essa: não proíba IA. Mas ensine a usar com discernimento. Crie políticas que distingam usos. Redesenhe avaliações que valorizem o processo. E tenha honestidade sobre o que você quer que estudantes e pesquisadores aprendam.
Essa conversa é muito mais produtiva do que qualquer lista de ferramentas banidas.
Por que a academia precisa liderar essa discussão, não fugir dela
Faz sentido que instituições sejam cautelosas com mudanças rápidas. É razoável querer proteger a integridade do conhecimento produzido. Essas preocupações são legítimas.
Mas a academia tem uma função que vai além de ensinar conteúdo. Ela forma pessoas capazes de pensar criticamente sobre o mundo em que vivem. E se a academia foge da discussão sobre IA em vez de liderá-la com rigor, ela está abdicando de um papel que é seu por vocação.
A questão “o que IA muda no processo de construção do conhecimento?” é uma das perguntas mais relevantes que pesquisadores poderiam estar investigando agora. Transformar isso em política de proibição em vez de objeto de estudo é uma oportunidade perdida.
Eu prefiro acreditar que é possível fazer diferente. Que dá para criar espaços onde IA é discutida com seriedade, usada com ética e ensinada com critério. Que a resposta certa não é a mais fácil, mas ela existe. Faz sentido?
Pesquisadoras em formação que me fazem essa pergunta geralmente já perceberam a contradição por conta própria. Elas usam IA no dia a dia, no trabalho, na vida pessoal, e entram numa sala de aula onde são tratadas como se a ferramenta não existisse. Essa dissonância cria cinismo, não integridade. E cinismo é o oposto do que queremos formar na pesquisa.
Essa é uma escolha institucional. E quero acreditar que ainda estamos a tempo de fazer a escolha certa.