IA & Ética

IA na Pesquisa em Serviço Social: Possibilidades

Como a inteligência artificial pode apoiar pesquisas em Serviço Social de forma ética e crítica, sem substituir o olhar humano e político da área.

ia-na-pesquisa servico-social pesquisa-qualitativa etica-na-pesquisa

IA no Serviço Social: onde isso faz sentido (e onde não faz)

Olha só: quando o assunto é inteligência artificial na pesquisa acadêmica, cada área tem suas próprias tensões. Na Engenharia ou na Computação, a conversa costuma fluir mais fácil. No Serviço Social, ela fica mais carregada, e faz bem que fique.

O Serviço Social é uma área que, por definição, trabalha com sujeitos históricos, com contradições sociais, com populações que carregam marcas de exclusão estrutural. Qualquer ferramenta que entre nesse espaço precisa ser questionada com seriedade. A IA não é diferente.

Mas tensão não é o mesmo que recusa cega. Há usos possíveis, há usos problemáticos, e há uma zona de responsabilidade do pesquisador que nenhuma ferramenta tecnológica vai resolver. O objetivo aqui é pensar onde a IA pode ser um apoio real na pesquisa em Serviço Social, sem romantizar nem demonizar.


O que a IA faz bem (e que você pode aproveitar)

Vamos ser diretas sobre o que essas ferramentas realmente entregam quando você está no meio de uma pesquisa.

Revisão de literatura em escala. Se você está mapeando produção sobre políticas de assistência social no Brasil dos últimos dez anos, a IA pode te ajudar a filtrar, organizar e identificar padrões em dezenas de artigos com muito mais velocidade do que lendo tudo manualmente. Isso não substitui a leitura crítica, mas encurta o caminho até ela.

Organização de documentos e relatórios oficiais. Políticas públicas geram documentos volumosos, relatórios de gestão, atas de conselho, legislação em camadas. Ferramentas de IA conseguem sintetizar, identificar termos recorrentes e mapear contradições entre documentos. Muito útil para pesquisas documentais e análise de políticas.

Codificação preliminar em análise qualitativa. Algumas plataformas oferecem suporte de IA para uma primeira passagem de codificação em entrevistas transcritas. Isso é uma sugestão de categorias, não uma análise pronta. O pesquisador ainda precisa checar, rejeitar, ajustar. Mas pode economizar horas em projetos com grande volume de material.

Transcrição automática de entrevistas. Ferramentas com boa precisão para o português reduzem o tempo de transcrição manual, que é uma das tarefas mais demoradas na pesquisa qualitativa. Faz sentido, desde que o pesquisador revise o arquivo final com cuidado.


Onde moram os problemas

Agora vem a parte que importa mais: os riscos.

Vieses nos dados de treinamento. Os modelos de IA foram treinados em enormes volumes de texto produzidos majoritariamente por quem sempre teve acesso à produção de conhecimento. Narrativas de populações marginalizadas, quando presentes, costumam aparecer mediadas por vozes que não são as delas. Quando você usa IA para analisar falas de pessoas em situação de rua, o modelo vai interpretar aquelas falas com padrões aprendidos em textos que frequentemente desumanizam essas mesmas populações.

Perda de contexto político. O Serviço Social trabalha com categorias como vulnerabilidade, exclusão social e resistência que carregam sentido político preciso. A IA tende a achatar essas categorias, tratá-las como descritores neutros. “Pessoa em situação de vulnerabilidade” vira tag, não análise de uma condição histórica.

Ilusão de objetividade. Esse risco é transversal a qualquer área, mas no Serviço Social ele é especialmente perigoso. A IA produz outputs que parecem neutros e sistemáticos. Isso pode mascarar escolhas do pesquisador que deveriam ser explicitadas e justificadas. Pesquisa qualitativa com rigor epistemológico exige que o pesquisador mostre como chegou às suas interpretações, não que esconda esse processo atrás de um modelo computacional.

Confidencialidade e proteção de dados. Entrevistas com usuários de serviços socioassistenciais envolvem dados sensíveis protegidos pelo Comitê de Ética. Inserir transcrições em ferramentas de IA que armazenam dados nos servidores da empresa pode violar termos éticos do projeto. Isso precisa ser avaliado antes de qualquer uso.


A questão do método nesse contexto

Existe uma premissa que se aplica muito bem aqui: a ferramenta nunca decide pelo pesquisador. No Serviço Social, isso fica ainda mais claro.

Verificar uma informação não é só um ato técnico; é um ato político. Organizar dados sobre populações vulneráveis implica escolhas sobre o que fica visível e o que fica escondido. Escrever sobre esses sujeitos é uma responsabilidade que nenhuma IA vai carregar no lugar do pesquisador.

O Método V.O.E. parte exatamente desse ponto: usar o que existe de melhor em termos de ferramentas sem abrir mão do rigor e da responsabilidade que a pesquisa exige. A IA entra como auxiliar de tarefas específicas, com supervisão constante. Não como método.


Exemplos de uso que fazem sentido na prática

Para ser mais concreta, alguns contextos onde há usos interessantes em pesquisas na área:

Análise documental de políticas públicas. Usar IA para identificar frequência de determinados termos em décadas de relatórios do SUAS pode revelar mudanças discursivas ao longo do tempo. Isso é dado que o pesquisador interpreta, não conclusão pronta.

Mapeamento bibliométrico. Quais pesquisadores publicam mais sobre certo tema? Em quais instituições? Com quais parceiros? Ferramentas de análise bibliométrica respondem essas perguntas em minutos. Isso alimenta a revisão de literatura, não a substitui.

Tradução assistida de materiais internacionais. Para pesquisas comparativas com literatura sobre políticas sociais em outros países, a IA pode acelerar a compreensão preliminar de textos em inglês ou espanhol. O pesquisador ainda precisa ler com cuidado os textos que vão compor a análise, mas a triagem fica mais rápida.

Organização de notas de campo. Alguns pesquisadores usam IA para ajudar a organizar diários de campo extensos, agrupando observações por temas. Como sugestão inicial, não como análise definitiva.


O que nunca delegar para a IA

Existe um conjunto de decisões que precisa ficar com o pesquisador, sempre.

A interpretação das falas dos sujeitos. Quando você está analisando uma entrevista com uma mãe que perdeu a guarda dos filhos, a IA não tem como acessar o peso daquilo. Ela processa texto. Você processa experiência humana. São coisas diferentes.

A escolha do referencial teórico. Decidir que seu estudo vai usar Gramsci e não Bourdieu, ou que vai partir da perspectiva do direito e não da assistência, é uma escolha epistemológica que define toda a pesquisa. Não dá para terceirizar isso.

A relação com os sujeitos da pesquisa. Todo o processo de consentimento, a responsabilidade com o que será feito com as informações coletadas, a escuta qualificada em campo, isso é do pesquisador.

A crítica sobre os próprios resultados. A IA vai te dizer o que encontrou nos dados que você deu a ela. Dizer se aquilo faz sentido, se é robusto, se contradiz sua hipótese de pesquisa, essa é sua responsabilidade.


Uma posição clara

Vou ser direta, porque a situação pede isso.

O Serviço Social tem toda razão em olhar com desconfiança para tecnologias que prometem analisar realidades sociais complexas. Essa desconfiança é saudável e necessária. O histórico de como tecnologias foram usadas para categorizar, vigiar e punir populações vulneráveis é longo o suficiente para justificar cautela.

Mas desconfiança não é o mesmo que recusa de qualquer uso. A questão nunca foi “IA sim ou não”, mas “IA em que condições, com que supervisão, com quem se beneficia e quem corre os riscos”.

Se você é pesquisadora em Serviço Social e está pensando em incorporar alguma ferramenta de IA no seu processo de pesquisa, a pergunta que vale fazer é: essa ferramenta está me ajudando a fazer melhor o que já sei que precisa ser feito, ou está me fazendo acreditar que posso pular etapas que não deveriam ser puladas?

A resposta honesta a essa pergunta vai indicar o caminho certo para cada caso.


O que fica daqui

A IA tem um lugar possível na pesquisa em Serviço Social. Esse lugar não é no centro do método, não é na interpretação dos sujeitos, não é na construção do referencial teórico. É no apoio a tarefas operacionais específicas, sempre com o pesquisador no controle.

Quem quer entender melhor como integrar ferramentas de forma crítica no processo de pesquisa acadêmica pode começar pela nossa página sobre recursos, que reúne ferramentas avaliadas com esse critério em mente.

Tecnologia a serviço da pesquisa. Nunca o contrário.

Perguntas frequentes

A IA pode ser usada em pesquisas de Serviço Social?
Sim, mas com critério. A IA pode ajudar em tarefas como revisão de literatura, análise de documentos e organização de dados. O que ela não faz é substituir o julgamento político e ético que a área exige. O pesquisador segue sendo o centro do processo.
Quais são os riscos éticos de usar IA em pesquisas sobre populações vulneráveis?
Os principais riscos incluem a reprodução de vieses históricos nos dados de treinamento dos modelos, a perda de nuances culturais e contextuais, e o risco de descaracterização das narrativas dos sujeitos. Por isso, toda aplicação de IA nesse contexto precisa de supervisão crítica constante.
IA substitui o trabalho de campo no Serviço Social?
Não. O trabalho de campo, as entrevistas em profundidade e a escuta qualificada continuam insubstituíveis. A IA é uma ferramenta de apoio ao pesquisador, nunca um substituto para o contato direto com os sujeitos da pesquisa.
<