IA e Pesquisa em Saúde Mental: Cuidados Éticos
Usar IA em pesquisa sobre saúde mental exige atenção redobrada a dados sensíveis, risco de estigma e limitações dos modelos. Entenda os cuidados éticos necessários.
IA e saúde mental na pesquisa: um campo que exige mais cuidado
Olha só. Se há um campo onde o uso de IA em pesquisa exige atenção redobrada, é a saúde mental.
Não porque a tecnologia não possa contribuir, mas porque os dados de saúde mental carregam camadas de sensibilidade que vão além do que a maioria dos modelos de IA foi treinada para reconhecer. E porque os erros nesse campo têm consequências que afetam pessoas que já estão em posição de vulnerabilidade.
Esse post não é sobre dizer que IA não deve ser usada em pesquisa sobre saúde mental. É sobre entender por que o cuidado ético aqui precisa ser maior, e o que isso significa na prática para quem está escrevendo uma dissertação ou projeto nessa área.
Por que dados de saúde mental são diferentes
Dados de saúde em geral já são considerados dados pessoais sensíveis pela LGPD. Mas dados de saúde mental têm especificidades que os tornam ainda mais delicados.
Primeiro, o estigma. Em muitas culturas, incluindo o contexto brasileiro, diagnósticos de transtornos mentais ainda carregam preconceito social e podem ter consequências práticas: afastar oportunidades de emprego, afetar relações familiares, influenciar decisões de guarda de filhos. Qualquer vazamento ou reidentificação de dados de saúde mental pode causar dano real e duradouro.
Segundo, a complexidade clínica. Relatos de pessoas com transtornos mentais não são textos simples. Contêm nuances de expressão, variações de acordo com o estado da pessoa no momento do relato, idiossincrasias culturais e regionais, e elementos que fazem sentido dentro de um contexto clínico que um modelo de linguagem genérico não possui.
Terceiro, o viés dos dados de treinamento. Modelos de IA foram treinados em textos que refletem os preconceitos presentes na cultura: representações equivocadas de transtornos mentais, linguagem que estigmatiza, perspectivas que medicalizam comportamentos em contextos culturais específicos. Um modelo treinado nesses dados pode reproduzir e amplificar esses vieses quando aplicado à análise de dados de pesquisa.
O que a IA consegue (e o que não consegue) em saúde mental
É útil ser específico sobre o que a IA pode fazer bem nesse campo.
O que funciona: identificação de padrões em grandes volumes de texto, categorização de respostas abertas, análise de frequência temática em entrevistas transcritas, extração de informações específicas de prontuários ou registros clínicos quando anonimizados. Para tarefas de escala, onde um pesquisador humano levaria semanas para ler e categorizar centenas de transcrições, a IA pode reduzir o tempo significativamente.
O que é problemático: interpretação de nuances emocionais complexas, avaliação de gravidade clínica, identificação de risco de autolesão ou suicídio em texto, distinção entre expressão cultural e sintoma clínico. Para essas tarefas, confiar na IA sem supervisão qualificada é inadequado metodologicamente e eticamente.
Um ponto que merece atenção específica: se você está usando IA para analisar textos onde participantes descrevem experiências de sofrimento mental, autolesão ou ideação suicida, a ferramenta não tem capacidade de acionar protocolos de segurança da mesma forma que um pesquisador humano. O protocolo de pesquisa precisa prever o que acontece nessas situações.
Anonimização em saúde mental: o que é diferente
A anonimização de dados de saúde mental exige atenção a elementos que não aparecem em outros tipos de dados clínicos.
Relatos sobre trajetórias de vida podem ser identificáveis mesmo sem nome, se combinarem características demográficas suficientes: cidade onde foi atendido, faixa etária, profissão, tipo de tratamento, ano do primeiro diagnóstico. Em populações menores ou em contextos regionais específicos, a reidentificação pode ocorrer com informações aparentemente genéricas.
Expressões idiossincráticas e formas de falar podem, em alguns casos, ser identificáveis por pessoas próximas ao participante. Para estudos qualitativos em que os participantes podem conhecer o pesquisador, a parafrase cuidadosa dos relatos é necessária, mesmo depois de remoção dos identificadores diretos.
Antes de processar qualquer dado de saúde mental com ferramentas de IA, a anonimização precisa ser especialmente rigorosa, e uma revisão humana da anonimização é indispensável.
O protocolo ético: o que incluir quando se usa IA
Quando você vai submeter um projeto ao CEP que inclui uso de IA para análise de dados de saúde mental, o protocolo precisa ir além do padrão.
Além da descrição geral do uso de IA (ferramenta, finalidade, dados que serão processados), inclua:
Uma análise específica dos riscos associados ao uso de IA com esse tipo de dado. Não genérica. Específica: quais são os riscos de reidentificação dado o contexto da sua pesquisa? Como o viés dos modelos pode afetar os resultados? Quais são as limitações da IA para capturar as nuances do seu objeto de estudo?
Medidas de mitigação concretas: como você vai anonimizar os dados antes do processamento? Qual é o processo de validação dos resultados? Quem vai revisar e com qual competência clínica?
Procedimentos para situações de segurança: se seus dados incluem relatos de risco, o protocolo precisa descrever o que acontece quando um pesquisador humano identifica esses relatos durante a revisão dos resultados.
Viés e equidade: uma preocupação central
Modelos de IA refletem os dados com que foram treinados. Para saúde mental, isso tem implicações sérias.
A maioria dos grandes modelos de linguagem foi treinada com predominância de textos em inglês e de perspectivas ocidentais. Expressões de sofrimento mental variam culturalmente: o que em um contexto é descrito como depressão, em outro pode ser narrado em termos de corpo, espiritualidade ou relações familiares. Um modelo treinado principalmente em dados ocidentais pode categorizar inadequadamente relatos de participantes brasileiros, especialmente de regiões com repertórios culturais distintos.
Além disso, se os dados de treinamento do modelo refletem vieses diagnósticos históricos (diagnósticos diferentes por raça, gênero, classe social), esses vieses podem aparecer nos resultados da análise. Um modelo que aprendeu que determinados grupos “têm mais” certos transtornos pode gerar categorizações que reproduzem esse viés.
Isso não significa que IA não pode ser usada. Significa que os resultados precisam ser interpretados com consciência dessas limitações, e que a discussão do artigo ou dissertação precisa reconhecer explicitamente os possíveis vieses do modelo utilizado.
Transparência no relato: o que incluir na metodologia
Quando você relata o uso de IA em pesquisa sobre saúde mental, a metodologia precisa ser suficientemente detalhada para que outros pesquisadores possam avaliar a adequação das escolhas e potencialmente replicar o estudo.
Especifique: qual modelo ou ferramenta, qual versão, qual era a tarefa específica (não “analisei com IA”, mas “utilizei o modelo X para identificação de temas nas transcrições, seguindo o protocolo Y”). Descreva o processo de validação: como você verificou que os resultados da IA eram precisos? Qual foi a taxa de concordância com a análise humana?
Nas limitações, seja honesto sobre o que a IA pode ter perdido ou distorcido. Uma seção de limitações que reconhece as restrições do uso de IA demonstra maturidade científica, não fraqueza metodológica.
O pesquisador ainda é o responsável
A ponto que precisa ficar claro: em pesquisa sobre saúde mental, a responsabilidade ética pelo que é feito com os dados é do pesquisador, não da ferramenta.
Se a IA categoriza um relato de forma inadequada, o pesquisador que assina o artigo é responsável por ter validado ou não esse resultado. Se dados sensíveis são expostos por uso inadequado de uma ferramenta externa, o pesquisador é o responsável pela escolha de usar aquela ferramenta.
Isso não é argumento contra o uso de IA. É argumento para usá-la com consciência e rigor, entendendo o que ela faz e o que ela não faz, e mantendo a supervisão humana qualificada em todas as etapas críticas da análise.
Pesquisa sobre saúde mental lida com as experiências mais íntimas e vulneráveis das pessoas. Isso exige do pesquisador o mais alto padrão de responsabilidade, independentemente das ferramentas que usa.
Confira outros posts sobre o uso ético de IA na pesquisa em /recursos e saiba mais sobre como estruturar sua análise com o Método V.O.E..