Posicionamento

IA e a Desigualdade Digital na Academia Brasileira

O acesso às ferramentas de IA não é igual para todas as pesquisadoras. Por que isso importa, o que está em jogo e qual posição tomar diante dessa realidade.

ia-academica desigualdade-digital academia-brasileira posicionamento

O que você consegue que sua colega não consegue

Olha só: quando conversamos sobre IA na academia, a discussão costuma ficar em torno de dois polos. De um lado, o entusiasmo com o que as ferramentas permitem fazer. Do outro, a preocupação com plágio, autoria e integridade acadêmica.

O que quase não entra na conversa é uma questão mais básica: nem todas as pesquisadoras têm acesso às mesmas ferramentas.

Isso não é um detalhe. É uma dimensão central da questão, que determina quem vai se beneficiar dessas tecnologias e quem vai ficar para trás enquanto o campo avança.

A desigualdade digital na academia brasileira não começou com a IA. Ela tem raízes mais antigas, na infraestrutura das instituições, no financiamento da pesquisa, na distribuição regional dos recursos científicos. Mas a IA amplifica algumas dessas desigualdades de formas que vale nomear.

O que separa quem tem acesso de quem não tem

As ferramentas de IA mais avançadas para escrita, análise de dados, revisão de literatura e processamento de linguagem costumam ser serviços pagos. As versões gratuitas existem, mas com limitações de uso, de capacidade e de acesso às funcionalidades mais sofisticadas.

Em um campo em que ferramentas fazem diferença na produtividade, quem pode pagar tem vantagem sobre quem não pode. Isso não é uma questão de mérito ou de esforço. É uma questão de acesso.

Além do custo financeiro, há o problema de infraestrutura. IA generativa funciona melhor com conexão de internet estável e rápida. Equipamentos velhos travam, softwares não rodam. Para pesquisadoras que trabalham em regiões com conectividade precária ou em instituições com equipamentos defasados, o acesso prático às ferramentas é menor mesmo quando elas existem formalmente.

E tem ainda a dimensão do tempo. Aprender a usar bem ferramentas de IA exige tempo de exploração, erro e ajuste. Pesquisadoras com menos suporte institucional, com mais encargos docentes, com menos assistência técnica disponível têm menos tempo para esse aprendizado.

O que isso significa para a produção científica

A discussão sobre IA na academia frequentemente assume que todas as pesquisadoras têm o mesmo ponto de partida. Que a questão é apenas “usar ou não usar”. Mas o que fazer quando a questão real é “tenho acesso para usar ou não”?

A produção científica no Brasil já é desigual. Há concentração de publicações em poucos grupos, poucas instituições e poucas regiões. O financiamento à pesquisa não é distribuído de forma equânime. As universidades com mais prestígio têm mais infraestrutura, mais tempo para os pesquisadores, mais apoio para publicação.

Se as ferramentas de IA aumentam a produtividade de quem as usa, e se o acesso a essas ferramentas é desigual, a tendência é que as desigualdades existentes se ampliem. Quem já tinha vantagem passa a ter mais. Quem já tinha menos tem mais dificuldade de competir.

Não precisa inventar dados para ver esse risco. É uma consequência lógica de uma tecnologia que muda as condições de produção e cujo acesso não é universalizado.

A resposta que não funciona

Uma resposta comum a esse problema é individual: “basta pesquisar as ferramentas gratuitas”. E é verdade que existem opções gratuitas ou de código aberto com capacidades relevantes. Ignorar isso seria desonesto.

Mas responsabilizar apenas as pesquisadoras individualmente pela busca de alternativas diante de uma desigualdade estrutural é um desvio de foco. O problema não é a falta de iniciativa das pesquisadoras com menos recursos. O problema é que as condições de produção não são iguais.

A resposta que faz mais sentido é dupla: por um lado, sim, usar bem o que está disponível dentro das limitações de cada contexto. Por outro, nomear essa desigualdade como um problema coletivo que precisa de respostas coletivas: políticas institucionais de acesso, negociação de licenças coletivas, investimento em infraestrutura, formação que não pressuponha acesso privilegiado.

Falar apenas da primeira parte, sem falar da segunda, é fingir que o problema é menor do que é.

Um risco que eu nomeio diretamente

Existe um risco específico que me parece importante nomear: a naturalização da diferença de acesso como diferença de capacidade.

Se pesquisadoras com acesso a ferramentas mais avançadas produzem mais e em revistas mais bem avaliadas, e se essa diferença de produção for lida como diferença de talento ou de empenho, estamos cometendo um erro de diagnóstico sério.

A academia tem uma tendência persistente de confundir desigualdade de condições com desigualdade de mérito. Com a IA, esse risco se agrava, porque as ferramentas são ainda mais invisíveis do que outros recursos. Você não vê a bolsa de pesquisa da colega, mas também não vê a assinatura do serviço que ela usa para acelerar a análise de dados.

Não sou contra o uso de IA na pesquisa. Uso, defendo e ensino. Mas defendo um uso honesto sobre as condições em que ele acontece.

O que fazer com isso, concretamente

Se você tem acesso a ferramentas boas: use bem, documente como usa, seja transparente sobre isso e pense em como compartilhar esse conhecimento com quem tem menos acesso. Não há virtude em guardar para si estratégias que podem ajudar mais gente.

Se você está em um contexto com acesso limitado: o que existe de gratuito e de qualidade suficiente é mais do que o mercado costuma mostrar. Modelos de código aberto, versões gratuitas com uso estratégico, ferramentas específicas para tarefas acadêmicas que não exigem assinatura premium. A questão é saber o que serve para o que você precisa, sem gastar energia em coisas que não vão mudar seu trabalho de forma significativa.

Se você está em posição de influenciar políticas na sua instituição: a discussão sobre acesso a ferramentas de IA deveria entrar na agenda dos programas de pós-graduação. Não como conversa sobre plágio, mas como conversa sobre condições de trabalho.

O que as instituições precisam fazer

A desigualdade digital na academia não vai se resolver por boas intenções individuais. Ela exige ação institucional.

Os programas de pós-graduação têm um papel aqui que ainda não foi assumido de forma adequada. Isso inclui oferecer acesso coletivo a ferramentas relevantes, negociar licenças institucionais que cheguem a todas as pesquisadoras do programa, não só às que têm bolsa ou recursos próprios, e incorporar formação em letramento digital como parte do percurso formativo, não como extra-curricular opcional.

Há também um papel das agências de fomento. Quando editais de produtividade e de bolsas avaliam produção sem considerar as condições em que ela foi gerada, elas contribuem para reproduzir desigualdades existentes. Isso não é novidade no debate sobre avaliação da ciência brasileira, mas a entrada da IA adiciona uma camada nova a esse problema.

E há um papel da Capes e do CNPq na estruturação de uma política de acesso a ferramentas digitais que alcance as instituições com menos infraestrutura. Isso não precisa esperar por um debate filosófico sobre IA: é uma questão de política científica, do mesmo tipo que orienta o acesso a bases de dados e periódicos pelo Portal de Periódicos.

A posição que eu defendo

A tecnologia não é neutra. Quem tem acesso a ela, em que condições, com que suporte e com que tempo para aprender determina quem se beneficia e quem fica de fora.

Isso não é uma crítica à IA. É uma crítica às condições em que ela chega na academia brasileira, sem política, sem planejamento e com a expectativa implícita de que cada pesquisadora resolva por conta própria o que é, na verdade, uma questão coletiva.

Ser favorável ao uso de IA na pesquisa não obriga ninguém a fingir que o acesso é igual. E fingir que é igual, quando não é, não ajuda ninguém. Só ajuda a naturalizarmos algo que não deveria ser naturalizado.

Se quiser explorar mais sobre como integrar IA de forma reflexiva e responsável na sua prática de pesquisa, veja o que ofereço em /sobre e os conteúdos disponíveis em /recursos.

Perguntas frequentes

O acesso a ferramentas de IA é desigual nas universidades brasileiras?
Sim. As ferramentas mais avançadas costumam ser pagas ou exigem infraestrutura tecnológica que não está disponível de forma equânime em todas as instituições. Pesquisadoras de universidades federais em regiões periféricas ou de instituições com menos recursos frequentemente têm acesso mais limitado do que colegas em instituições melhor financiadas.
Quais são as implicações da desigualdade digital para a pesquisa científica?
Quando o acesso a ferramentas melhora a produtividade e a qualidade da pesquisa, quem não tem acesso fica em desvantagem competitiva. Isso pode amplificar desigualdades já existentes entre regiões, instituições e perfis de pesquisadoras, afetando desde a publicação de artigos até o acesso a financiamento.
Como pesquisadoras com poucos recursos podem usar IA de forma estratégica?
Existem ferramentas gratuitas ou de código aberto com capacidades significativas. A questão não é ter acesso ao mais avançado, mas usar com inteligência o que está disponível. E parte dessa estratégia passa por entender as limitações de cada ferramenta e não desperdiçar tempo com tarefas que não precisam de IA.
<