Posicionamento

Formação em IA para Professores: Por Que É Urgente e Como Começar

A falta de formação em IA para professores cria um abismo entre o que alunos usam e o que docentes conhecem. Entenda por que isso importa e o que fazer agora.

ia-educacao formacao-professores inteligencia-artificial pos-graduacao academia

Há um abismo crescendo entre alunos e professores, e não é de conhecimento

Olha só: alunos universitários usam inteligência artificial para escrever trabalhos, resumir leituras, gerar esboços de argumentos e simular diálogos com personagens históricos. Fazem isso todos os dias, com naturalidade crescente.

A maioria dos professores que vai avaliar esses trabalhos não sabe distinguir um texto gerado por IA de um texto humano com qualidade média. Não sabe o que as ferramentas fazem bem, o que elas fazem mal, nem onde está o limite entre uso ético e fraude acadêmica.

Esse abismo não é problema de disposição dos professores. É problema estrutural: a formação docente não acompanhou a velocidade com que as ferramentas chegaram. E enquanto as instituições debatem políticas de proibição que não funcionam, o cotidiano das salas de aula já mudou.

A proibição genérica é uma resposta de pânico, não de política

Quando uma universidade proíbe o uso de IA em trabalhos acadêmicos sem definir o que isso significa na prática, cria um problema maior do que o que tentou resolver.

O aluno não sabe se usar o corretor ortográfico baseado em IA do Google Docs é proibido. Não sabe se pesquisar em uma ferramenta de busca semântica viola a norma. Não sabe se resumir um artigo com ajuda de IA e depois reescrever com suas palavras é fraude. A norma vaga gera paralisia nos alunos cuidadosos e incentiva o uso clandestino nos menos cuidadosos.

Para o professor, a proibição sem instrumentos de verificação é igualmente problemática: como detectar uso de IA em um texto bem revisado? Os detectores automáticos têm taxas de falso positivo e falso negativo que os tornam inadequados como único instrumento de avaliação.

O resultado prático: a proibição não reduz o uso de IA, ela reduz a transparência sobre o uso de IA.

O que a formação docente em IA precisa desenvolver

Não estou falando de tornar todo professor um especialista em machine learning. Estou falando de letramento funcional: entender o que as ferramentas fazem, como funcionam em nível conceitual, e quais as implicações para o ensino e a avaliação.

Professores com esse letramento conseguem fazer coisas que quem não tem não consegue:

Elaborar avaliações que não sejam trivialmente substituíveis por IA — e que, quando a IA for usada, o seja de forma transparente e verificável.

Distinguir entre uso legítimo (IA como ferramenta de apoio ao pensamento) e uso indevido (IA substituindo o pensamento do aluno).

Orientar alunos sobre como declarar o uso de IA no trabalho, o que citar, e como garantir que o conteúdo seja verificável.

Participar com conhecimento de base nas discussões institucionais sobre políticas de IA, em vez de se ausentar por não se sentir preparado para o debate.

Por que isso é urgente agora

A velocidade com que as ferramentas evoluem é a parte mais desconfortável da conversa.

Em 2022, antes do lançamento do ChatGPT ao público, a discussão era abstrata. Hoje não é mais. As ferramentas são acessíveis, gratuitas e utilizadas cotidianamente por uma fatia significativa dos estudantes em todos os níveis.

O que acontece quando professores formam alunos para um mercado de trabalho que já opera com IA mas baseiam o processo formativo em práticas que ignoram essa realidade? Produzem profissionais com competências desalinhadas com o contexto onde vão atuar.

A urgência não é tecnológica. É pedagógica. A questão não é “os professores precisam aprender IA?” — precisam, e ponto. A questão é como fazer isso com eficiência e sem sobrecarregar ainda mais docentes que já têm agendas apertadas.

Como começar sem partir do zero sobre computação

A boa notícia: letramento em IA para professores não exige conhecimento técnico de programação ou matemática. Exige disposição para experimentar.

O ponto de partida mais eficaz é usar as ferramentas antes de regulamentá-las. Passe um período — um mês é suficiente para uma impressão inicial — usando um assistente de IA nas suas próprias tarefas: esboçar roteiros de aulas, resumir artigos longos, redigir feedbacks, explorar argumentos contrários ao que você está desenvolvendo.

Nesse processo, você vai perceber onde a ferramenta erra, onde ela tem vieses, onde ela produz texto fluente sem substância, onde ela é genuinamente útil. Esse conhecimento empírico é mais valioso do que qualquer tutorial teórico.

Depois, faz sentido buscar formação mais estruturada. Algumas universidades brasileiras já oferecem cursos de extensão sobre IA na educação. Grupos de pesquisa como o LAPEGE (Laboratório de Pesquisa em Gestão Educacional) e iniciativas vinculadas a programas de pós-graduação em educação têm produzido material sobre o tema.

O papel das pós-graduações nesse processo

A discussão sobre IA na academia é mais urgente nas pós-graduações do que na graduação, por uma razão simples: a escrita acadêmica de alto nível, que é o produto central do mestrado e do doutorado, é justamente o território onde IA tem mais capacidade de interferência.

Um pré-projeto de pesquisa pode ser gerado por IA com qualidade aparente razoável. Uma revisão de literatura pode ser estruturada com ferramentas de síntese de textos. Uma discussão pode ter estrutura lógica impecável sem que o pesquisador tenha feito o trabalho de pensar.

O problema não é a IA. É que o processo de pensar, errar, revisar e construir conhecimento tem valor intrínseco que vai além do produto final. Quando a IA substitui esse processo, o pesquisador não aprende o que precisaria aprender. E no doutorado, especialmente, o que o pesquisador aprende durante o processo é frequentemente mais importante do que o texto que entrega.

Programas de pós-graduação que querem formar pesquisadores autônomos precisam pensar em como avaliar o processo, não só o produto.

Uma posição clara

Minha posição sobre isso é direta: proibir IA na academia é a resposta errada para um problema legítimo. Mas a resposta certa não é liberar tudo sem critério.

A resposta certa é formação — de professores, de alunos, de gestores. Formação que desenvolva discernimento: saber quando usar, como usar, o que declarar, o que verificar, e onde está o limite entre apoio e substituição.

Isso exige investimento institucional real em formação docente. Não um webinar de duas horas. Um processo contínuo, com tempo, com experimentação, com espaço para erro sem punição.

Enquanto esse investimento não chega, professores podem dar o primeiro passo individualmente: abrir o ChatGPT, fazer uma pergunta sobre sua área de pesquisa, e observar o que acontece. O desconforto que vem dessa experiência já é o começo da formação.

O que instituições de pesquisa podem fazer agora

Algumas iniciativas institucionais concretas têm funcionado em universidades que começaram a enfrentar esse problema com seriedade:

Grupos de estudos interdisciplinares sobre IA na educação, onde professores de áreas diferentes se reúnem para experimentar ferramentas e discutir casos de uso. A horizontalidade desses grupos, onde ninguém é o especialista definitivo, cria um ambiente mais seguro para aprendizado.

Revisão colaborativa de políticas de integridade acadêmica com participação de estudantes e docentes, para construir diretrizes que façam sentido para o contexto real da instituição.

Pilotos de avaliações redesenhadas em uma ou duas disciplinas, onde o uso de IA é permitido e declarado, e a avaliação recai sobre o que o aluno faz com o produto da IA, não sobre a ausência da ferramenta.

Essas iniciativas não resolvem tudo, mas criam cultura de aprendizado conjunto que é a base de qualquer política sustentável.

Para fechar

A velocidade da mudança está gerando ansiedade legítima em professores e gestores educacionais. Mas ansiedade não é política. O que funciona é conhecimento suficiente para tomar decisões informadas — e esse conhecimento começa com uso, não com proibição.

Se você é pesquisadora e quer entender como usar IA de forma ética na própria prática de escrita e pesquisa, conheça os recursos em /recursos. Há material específico sobre esse tema.

Faz sentido? Então a próxima reunião de departamento pode ser o lugar certo para abrir essa conversa.

Perguntas frequentes

Por que professores universitários precisam de formação em IA?
Porque alunos já usam IA para estudar, escrever e pesquisar, e professores que não conhecem essas ferramentas não conseguem avaliar o uso adequado, criar políticas coerentes nem orientar eticamente. A falta de formação cria políticas de proibição genérica que não funcionam na prática e prejudicam o desenvolvimento das competências que o mercado vai exigir desses alunos.
Qual a diferença entre proibir IA e ensinar a usar IA com responsabilidade?
Proibir IA é uma medida de controle que não resolve o problema — os alunos continuam usando, mas de forma escondida e sem orientação. Ensinar a usar IA com responsabilidade significa desenvolver nos alunos a capacidade de avaliar, verificar e integrar criticamente o que as ferramentas produzem. A segunda abordagem é mais trabalhosa, mas é a única que prepara para o mundo real.
Como professores podem começar a se formar em IA sem saber nada?
O ponto de partida mais acessível é usar as ferramentas como usuário antes de ensiná-las. Passe um mês usando ChatGPT ou Claude nas suas próprias tarefas de pesquisa e ensino. Errar e aprender nesse processo é formação. Depois, busque recursos da própria área: cursos de universidades abertas, grupos de pesquisa sobre educação e IA, e comunidades de professores que já estão navegando nesse território.
<