IA & Ética

IA na Pesquisa em Alfabetização e Letramento

Como usar IA na pesquisa sobre alfabetização e letramento de forma ética e responsável, sem abrir mão do rigor científico que a área exige.

ia-na-pesquisa alfabetizacao letramento etica-na-pesquisa metodologia

Pesquisa sobre alfabetização e IA: onde essas coisas se encontram?

Olha só: a área de alfabetização e letramento é uma das mais politicamente disputadas da educação brasileira. Quem pesquisa nesse campo sabe que cada escolha metodológica carrega um peso teórico. Então quando a IA aparece nessa equação, a pergunta que importa não é “como usar”, mas “o que acontece quando uso?”.

Essa distinção faz toda a diferença.

Pesquisadoras de alfabetização e letramento lidam com um material delicado: crianças em desenvolvimento, comunidades em contextos de vulnerabilidade, professoras sobrecarregadas, políticas públicas em disputa. Jogar uma ferramenta de IA nesse contexto sem reflexão crítica não é modernização de pesquisa. É irresponsabilidade metodológica disfarçada de eficiência.

Mas também não é honesto dizer que IA não tem nada a oferecer para esse campo. Tem. O ponto é saber o quê, como e com quais limites.

O que a IA pode realmente fazer por quem pesquisa alfabetização

Vamos ser diretas sobre o que funciona e o que não funciona.

A IA é boa em organizar grandes volumes de texto. Se você tem 40 transcrições de sessões de leitura com crianças do primeiro ano e precisa identificar padrões recorrentes de erro ou estratégias de decodificação, uma ferramenta de IA pode ajudar a fazer esse mapeamento inicial mais rápido do que você faria linha por linha.

Ela também é útil para revisão de literatura em larga escala. Pesquisa sobre letramento produz muito. Muito mesmo. Você consegue pedir para uma ferramenta como o ChatGPT ou o Perplexity organizar os principais debates de uma área, identificar autoras recorrentes, mapear onde há consenso e onde há polêmica. Isso não substitui sua leitura crítica — mas pode ser um ponto de partida.

Outra aplicação que funciona: auxílio na escrita do texto científico. Reorganizar parágrafos confusos, checar coerência argumentativa, reformular frases que estavam emperradas. Nada disso compromete a autoria intelectual, desde que a ideia original seja sua.

O que a IA não consegue fazer, e isso é importante: ela não interpreta. Ela processa padrões. Quando uma criança diz “escrevi a palavra ‘bolo’ com H porque o H é bonito”, isso não é dado numérico. É uma janela para a lógica interna de quem está aprendendo a ler e escrever. A interpretação desse dado exige conhecimento teórico sobre aquisição da linguagem escrita, sobre afeto e aprendizagem, sobre contexto sociocultural. Isso nenhuma ferramenta vai fazer por você.

Ética no uso de IA com dados de crianças

Aqui eu preciso pausar e ser muito clara, porque esse ponto é inegociável.

Qualquer pesquisa que envolva dados de crianças — seja áudio, vídeo, texto, desenho, produção escrita — passa por um comitê de ética. Isso você já sabe. O que talvez não tenha parado para pensar é que o consentimento informado que a família assinou provavelmente não contempla o compartilhamento desses dados com plataformas de IA.

Quando você cola uma transcrição de uma sessão com uma criança de seis anos em uma ferramenta de IA baseada em nuvem, você está potencialmente enviando dados de um participante de pesquisa para servidores que não estavam previstos no TCLE. Isso é um problema ético real.

Soluções práticas existem. A primeira é anonimizar os dados antes de qualquer interação com IA: nomes trocados, escolas não identificadas, regiões omitidas. A segunda é usar ferramentas que rodam localmente, sem conexão com servidores externos. A terceira, quando possível, é atualizar o TCLE para contemplar o uso de ferramentas de análise assistida por computador.

Faz sentido? A ética não é burocracia. Ela existe para proteger as pessoas que você pesquisa.

Viés algorítmico e as ausências que a IA não vê

Esse é o ponto mais crítico para quem pesquisa em educação e raramente é discutido.

As ferramentas de IA são treinadas em corpora de texto. Esses corpora refletem o que foi produzido, publicado e digitalizado. Em geral, isso significa: mais texto em inglês do que em português, mais contextos urbanos do que rurais, mais perspectivas de quem acessa e produz conhecimento formalizado.

Para a pesquisa em alfabetização e letramento no Brasil, isso tem implicações diretas. Se você usa IA para analisar práticas de letramento em comunidades quilombolas, indígenas ou ribeirinhas, a ferramenta vai processar esses dados com uma lente que não foi construída para reconhecer a complexidade e a riqueza dessas práticas. O risco é que a IA confirme ausências onde há presença, e simplifique onde há sofisticação.

Isso não significa não usar. Significa usar com desconfiança produtiva. O que a ferramenta está deixando de ver? O que ela está classificando de forma inadequada? Quais categorias ela está aplicando que não fazem sentido para o contexto que você está pesquisando?

Essas perguntas precisam fazer parte do seu processo de análise, não serem notas de rodapé esquecidas.

O método V.O.E. como âncora nesse processo

Quando eu penso em como pesquisadoras deveriam se relacionar com IA, o que eu vejo é a necessidade de um processo com etapas claras: o que você validou teoricamente, o que você organizou metodicamente e o que você executou com critério. O Método V.O.E. parte exatamente dessa lógica.

A IA pode entrar em diferentes pontos desse processo. Na fase de validação, ela pode ajudar a mapear a literatura. Na fase de organização, pode auxiliar na categorização preliminar de dados. Na fase de execução, pode apoiar a escrita. Mas em nenhuma dessas fases ela substitui a pesquisadora.

O que muda quando você tem um método claro é que você sabe exatamente onde a ferramenta entra e onde você precisa estar presente. Isso evita dois extremos igualmente problemáticos: o medo paralisante de usar IA e a delegação irresponsável de decisões analíticas.

Transparência como princípio, não como constrangimento

Uma das resistências que ouço de pesquisadoras é: “se eu declarar que usei IA, o revisor vai rejeitar meu artigo”. Olha, entendo esse medo. Mas eu discordo da estratégia de ocultar.

O campo científico está num momento de construção de normas sobre uso de IA. Periódicos estão atualizando suas políticas. Comitês de ética estão discutindo diretrizes. Associações de pesquisa estão produzindo documentos orientadores. Quem omite uso de IA hoje está apostando que ninguém vai perguntar. É uma aposta cada vez mais arriscada.

Além disso, há uma dimensão ética que vai além da estratégia: ao declarar como você usou IA, você contribui para que outras pesquisadoras aprendam a fazer isso com critério. O conhecimento científico é coletivo. A transparência metodológica também deveria ser.

Na seção de metodologia do seu artigo, você pode incluir algo como: “A análise preliminar das transcrições contou com o apoio de ferramenta de IA [nome da ferramenta] para categorização inicial dos dados. Todos os resultados foram revisados e reinterpretados pela pesquisadora principal à luz do referencial teórico adotado.” Simples, honesto, metodologicamente responsável.

Pesquisa em alfabetização não é neutra. IA também não é.

Essa é a frase que eu quero que fique.

Quem pesquisa alfabetização e letramento sabe que não existe neutralidade nessa área. A escolha do método de ensino da leitura é política. A escolha do corpus de pesquisa é política. A escolha do referencial teórico é política. Tudo isso reflete valores, visões de mundo, concepções de infância e de educação.

A IA carrega a mesma não-neutralidade. Os dados com que ela foi treinada, as empresas que a desenvolvem, os interesses que moldam suas atualizações, as línguas que ela domina melhor — tudo isso é escolha, e toda escolha exclui alguma coisa.

Quando você incorpora IA à sua pesquisa, você está incorporando um conjunto de escolhas que não foram feitas por você. Isso não inviabiliza o uso. Mas exige que você nomeie essas escolhas, questione seus efeitos e assuma a responsabilidade de mediá-las com o seu olhar crítico.

A IA não vai fazer pesquisa sobre alfabetização por você. Mas, usada com responsabilidade, pode te ajudar a fazer pesquisa melhor. Faz sentido?

Para terminar: a pergunta que vale

Antes de usar qualquer ferramenta de IA na sua pesquisa sobre alfabetização e letramento, faça essa pergunta para si mesma: o que eu ganho com isso e o que posso perder?

Se você ganha tempo na organização de dados, mas perde profundidade interpretativa — talvez não valha para aquele momento da pesquisa. Se você ganha agilidade na revisão de literatura, mas não tem como verificar se as fontes são reais e pertinentes — o ganho é ilusório.

A IA não é vilã nem salvadora. Ela é uma ferramenta com capacidades e limitações muito concretas. Pesquisadoras sérias de alfabetização e letramento sabem avaliar ferramentas. Esse é exatamente o conhecimento que precisam aplicar aqui.

Se quiser saber mais sobre como o Método V.O.E. pode ajudar a estruturar sua pesquisa com mais clareza e menos ansiedade, você encontra mais recursos em /recursos. Tem muita coisa boa esperando por você por lá.

Perguntas frequentes

É ético usar IA para analisar dados de pesquisa sobre alfabetização?
Sim, desde que a pesquisadora mantenha controle crítico sobre os resultados, declare o uso da ferramenta e valide as análises com seu próprio olhar teórico. IA é uma ferramenta de apoio, não de substituição do julgamento acadêmico.
IA pode ajudar a analisar transcrições de crianças em processo de alfabetização?
Pode auxiliar na organização e categorização inicial das transcrições, mas a interpretação deve ser da pesquisadora. Dados de crianças exigem atenção redobrada à privacidade e aos princípios éticos do comitê de ética.
Quais são os riscos do uso de IA em pesquisas sobre letramento?
Os principais riscos incluem viés algorítmico que pode invisibilizar contextos periféricos, dependência excessiva da ferramenta na análise de dados qualitativos, e a possibilidade de simplificar fenômenos complexos de linguagem que exigem interpretação contextualizada.
<