IA na Pesquisa em Educação Especial: Cuidados Éticos
Pesquisar educação especial com apoio de IA exige atenção a questões éticas sobre representação, poder e participação. Entenda os limites antes de usar.
Um campo com questões de poder muito concretas
Vamos lá. Pesquisa em educação especial e inclusiva não é um campo neutro. Tem uma história longa de pesquisadores sem deficiência pesquisando pessoas com deficiência, frequentemente produzindo conhecimento sobre elas e não com elas. Essa assimetria é reconhecida na área e tem gerado um movimento importante de transformação metodológica — pesquisa participativa, pesquisa emancipatória, pesquisa liderada por pessoas com deficiência.
Trazer IA para esse contexto sem considerar essas questões de poder é um erro metodológico e ético.
Não estou dizendo que IA não tem uso legítimo nessa área. Estou dizendo que o uso precisa ser pensado dentro de um quadro ético que já existe no campo — e que a IA, por padrão, não respeita.
O que os modelos de IA “pensam” sobre deficiência
Modelos de linguagem aprenderam sobre deficiência a partir de textos. E os textos disponíveis em grande quantidade na internet sobre deficiência reproduzem, em sua maioria, uma perspectiva biomédica: deficiência como problema individual, como condição a ser tratada ou corrigida, como tragédia pessoal.
O modelo social da deficiência — que é a perspectiva dominante nos estudos de deficiência contemporâneos e que fundamenta a Convenção sobre os Direitos das Pessoas com Deficiência da ONU — é uma perspectiva crítica, teórica, relativamente especializada. Ela está muito menos representada nos corpora com que os modelos foram treinados.
Isso tem uma consequência prática: quando você pede para uma IA analisar dados ou gerar categorias em uma pesquisa sobre educação especial, ela vai tender a reproduzir o modelo médico. Vai enquadrar dificuldades dos alunos como problemas individuais, vai sugerir categorias que assumem que a normalidade é o objetivo, vai interpretar narrativas de professoras dentro de um quadro que naturaliza a exclusão.
Se o seu referencial teórico é o modelo social da deficiência, a IA está potencialmente trabalhando contra você — a menos que você identifique e corrija essas tendências ativamente.
Questões de privacidade amplificadas
Pesquisas em educação especial frequentemente envolvem dados de crianças e adolescentes com condições de saúde específicas. Isso é dado sensível em qualquer análise de privacidade. Quando você adiciona o uso de ferramentas de IA no processamento desses dados, precisa considerar:
Para onde esses dados são enviados quando você usa uma ferramenta de IA? Os termos de serviço da ferramenta permitem uso de dados sensíveis de terceiros? Há consentimento dos responsáveis (e quando possível, das próprias pessoas) para que esses dados sejam processados por sistemas de IA?
Essas questões valem para qualquer pesquisa com dados sensíveis, mas ganham peso adicional quando os participantes são pessoas com deficiência ou crianças em situação de vulnerabilidade.
A regra mais segura: dados identificáveis ou potencialmente identificáveis de participantes com deficiência não devem ser inseridos em ferramentas de IA que não têm garantias claras de privacidade e descarte de dados. Isso inclui a maioria das interfaces públicas de modelos como ChatGPT ou Claude.
Instrumentos de pesquisa e o risco do viés linguístico
Um uso aparentemente seguro de IA nessa área é a elaboração de instrumentos de coleta de dados: questionários, roteiros de entrevista, escalas de avaliação. Mas aqui também existem riscos específicos.
A linguagem dos instrumentos em pesquisa com pessoas com deficiência precisa ser cuidadosamente avaliada quanto a capacitismo implícito. Perguntas que assumem que determinadas capacidades são universais, que usam terminologia médica desatualizada ou que enquadram a deficiência como problema são exemplos de viés que a IA pode introduzir ou não identificar.
Além disso, se sua pesquisa inclui entrevistas diretamente com pessoas com deficiência intelectual, com autistas ou com pessoas com dificuldades de comunicação, os instrumentos gerados por IA raramente vão ser adaptados para essas especificidades sem intervenção especializada. A IA gera linguagem padrão para falantes típicos.
Qualquer instrumento gerado com apoio de IA para esse campo precisa passar por revisão de especialistas em acessibilidade e, quando possível, por pilotagem com pessoas do grupo pesquisado.
Quando a pesquisa tem perspectiva participativa
Pesquisa participativa em educação especial tem como princípio que as pessoas com deficiência não são apenas objetos da pesquisa, mas agentes do processo. Isso exige que a metodologia contemple formas de participação que sejam acessíveis e que respeitem a agência das pessoas.
Usar IA para mediar ou simplificar esse processo pode ser tentador, mas cria tensões. Quem decidiu usar essa ferramenta? Foi uma decisão dos participantes ou uma conveniência metodológica imposta pelos pesquisadores? Que barreiras a ferramenta cria para participantes com certas deficiências?
Essas perguntas não têm respostas únicas, mas precisam ser feitas.
O que declarar e como justificar
Se você usa IA em pesquisa sobre educação especial e inclusiva, a declaração metodológica precisa ser explícita sobre:
Qual ferramenta foi usada e para qual finalidade. Quais dados foram processados pela ferramenta (e a garantia de que dados identificáveis de participantes não foram incluídos). Quais foram os procedimentos de revisão crítica dos outputs da IA. Como as perspectivas teóricas do campo (especialmente o modelo social da deficiência) foram mantidas mesmo diante das tendências do modelo.
Isso não é burocracia — é o que permite que sua banca e seus leitores avaliem a qualidade e a integridade do seu processo.
IA e acessibilidade: o potencial que existe (mas precisa ser bem usado)
É justo dizer que IA também tem potencial genuíno para aumentar a acessibilidade em contextos de pesquisa — quando bem usada.
Para pesquisadoras com deficiência, ferramentas de IA podem auxiliar em tarefas que seriam mais custosas sem assistência: leitura de textos em voz alta para quem tem dislexia ou baixa visão, conversão de conteúdo visual em descrição textual, organização de notas por voz, assistência na produção de textos para quem tem dificuldades motoras.
Do ponto de vista do acesso ao campo, transcrição automática de entrevistas pode facilitar o trabalho com participantes que usam comunicação alternativa e aumentativa, reduzindo a barreira de processamento de dados em larga escala.
Esses são usos que expandem a capacidade metodológica de pesquisadoras com deficiência — e que podem também facilitar pesquisas participativas com participantes com deficiência, quando a ferramenta é apresentada e escolhida de forma transparente.
O ponto é: IA pode ser aliada da acessibilidade ou pode reproduzir barreiras, dependendo de como é implementada e de quem tem controle sobre as decisões de uso. Essa distinção não é técnica — é política.
Consentimento e compreensão: uma camada adicional de complexidade
Em pesquisas com pessoas com deficiência intelectual, com autistas com necessidades de comunicação específicas ou com crianças com deficiência, o processo de obtenção de consentimento informado já exige atenção extra. Quando a pesquisa também envolve uso de IA, essa complexidade aumenta.
A pergunta que precisa ser respondida: os participantes (e seus responsáveis legais, quando aplicável) foram informados de forma compreensível de que ferramentas de IA seriam usadas no processamento de seus dados? Entenderam o que isso significa na prática?
Em muitos casos, os termos de consentimento informado são documentos longos, em linguagem jurídica, que ninguém lê inteiramente. Para participantes com deficiência intelectual ou com dificuldades de leitura, isso é ainda mais problemático. A pesquisa participativa em educação especial tem desenvolvido formas de comunicação sobre o processo de pesquisa que são mais acessíveis — pictures, versões em linguagem simplificada, discussões orais. Informar sobre uso de IA precisa entrar nessa mesma lógica de acessibilidade.
Isso não é obstáculo intransponível. É parte do trabalho ético de fazer pesquisa com responsabilidade com populações que merecem participação, não apenas inclusão.
A formação de pesquisadoras para esse campo
Um aspecto que raramente aparece nos debates sobre IA e pesquisa em educação especial é o da formação das próprias pesquisadoras.
A maioria dos programas de pós-graduação em educação não oferece formação específica em ética de uso de IA. As pesquisadoras que chegam ao campo precisam construir esse letramento por conta própria — o que aumenta o risco de adoção acrítica de ferramentas que parecem neutras mas não são.
Isso aponta para uma necessidade que vai além das escolhas individuais: formação metodológica nos programas de pós-graduação precisa incluir discussão sobre ética de uso de tecnologia, especialmente em pesquisas com populações vulneráveis. Não como um adendo, mas como parte do currículo de metodologia de pesquisa.
Uma última observação
Há algo que me parece central nessa conversa toda sobre IA e educação especial: a questão de quem controla a narrativa sobre deficiência e sobre o que é “aprender bem”.
Sistemas de IA adaptativos que personalizam o ensino para alunos com deficiência podem ser instrumentos poderosos de inclusão — ou podem reforçar uma ideia estreita de que existe um caminho certo de aprender e que alunos com deficiência precisam ser “adaptados” a ele. A diferença está em quem decide os objetivos do sistema e em quais valores estão embutidos nas suas definições de “sucesso” e “progresso”.
Pesquisa em educação especial que examina esses sistemas com olhar crítico — que pergunta quem os construiu, com que dados, com que concepção de deficiência e de aprendizagem — é pesquisa que serve ao campo. E fazer essa pesquisa com honestidade intelectual é um ato que vai além do cumprimento de requisitos metodológicos.
Pesquisa em educação especial e inclusiva tem avançado nos últimos anos para um modelo mais ético e mais epistemicamente justo — um que dá voz e protagonismo às pessoas com deficiência em vez de falar por elas. Seria uma pena que a adoção acrítica de IA revertesse esse avanço ao restaurar dinâmicas em que um sistema externo (agora tecnológico) define e categoriza a experiência de pessoas com deficiência a partir de um ponto de vista que não é o delas.
A tecnologia pode ser aliada. Mas só quando usada com consciência do contexto histórico, das assimetrias de poder e dos referenciais éticos que o campo já construiu.
Para mais reflexões sobre o uso ético de IA na pesquisa, confira os outros posts da série em IA & Ética e o Método V.O.E., que trata da relação entre rigor metodológico e clareza de posicionamento.