IA & Ética

IA na Pesquisa em Saúde Coletiva: Oportunidades

Como a inteligência artificial está sendo usada na pesquisa em saúde coletiva e quais são as oportunidades e os limites éticos para pesquisadoras da área.

inteligencia-artificial saude-coletiva pesquisa-academica etica-pesquisa

Saúde coletiva e IA: uma relação que merece cuidado

Olha só: a saúde coletiva tem uma tradição crítica muito forte. É uma área que nasceu no Brasil com um projeto político explícito de defesa da saúde como direito, de reconhecimento dos determinantes sociais do adoecimento, de atenção às populações mais vulneráveis.

Quando a inteligência artificial entra nesse campo, traz ao mesmo tempo possibilidades genuínas e riscos específicos que não podem ser ignorados. Ignorar os riscos por entusiasmo tecnológico não combina com o rigor crítico que a área exige. Mas também não faz sentido fechar os olhos para as oportunidades reais.

Este post é sobre pensar os dois lados com seriedade.

O que a IA oferece para a pesquisa em saúde coletiva

A saúde coletiva trabalha com dados em escala. Sistemas de informação como DATASUS, SINAN, SIM, SINASC geram volumes de dados que crescem ano a ano. Cruzar esses sistemas, identificar padrões, modelar situações epidemiológicas, historicamente demandava equipes grandes e tempos longos de processamento.

Técnicas de aprendizado de máquina permitem encontrar padrões em conjuntos de dados que seriam impossíveis de analisar manualmente em tempo razoável. Para vigilância epidemiológica, isso tem valor real. Modelos de detecção precoce de surtos, previsão de distribuição de vetores de doenças tropicais em cenários de mudança climática, identificação de municípios com maior risco de agravos específicos: são aplicações concretas que podem informar políticas de saúde.

Para pesquisas com grandes volumes de texto, como análise de prontuários, relatórios de gestão, notícias sobre saúde ou redes sociais no contexto da infodemia, ferramentas de processamento de linguagem natural podem apoiar a fase de codificação e categorização de dados. Isso não elimina o trabalho do pesquisador, mas pode torná-lo mais ágil.

Na vigilância nutricional e no monitoramento de condições crônicas em populações, algoritmos têm sido usados para identificar grupos de risco a partir de dados rotineiramente coletados, sem a necessidade de estudos específicos caros.

Onde os riscos aparecem com mais força

Na saúde coletiva especificamente, os riscos do uso acrítico de IA têm dimensão política que vai além do técnico.

O viés nos dados é o viés nas pessoas. Quando um modelo de machine learning é treinado com dados de sistemas de saúde que historicamente atenderam mal determinados grupos, como populações negras, indígenas, populações rurais, idosos em situação de vulnerabilidade, o modelo vai replicar e possivelmente ampliar essas desigualdades. Um sistema de triagem de risco que subestima sistematicamente a gravidade de quadros em populações negras não é neutro. É discriminatório.

A reidentificação é um risco real. Bases de dados “anonimizadas” podem ser reidentificadas por combinação de variáveis. Pesquisas com dados populacionais de saúde exigem avaliação cuidadosa dos riscos de reidentificação antes de qualquer compartilhamento ou uso em modelos de IA.

Quem define o que a IA vai otimizar? Esta é talvez a questão mais importante. Sistemas de IA são construídos para otimizar alguma coisa: reduzir hospitalizações, diminuir custos, aumentar cobertura vacinal. Mas otimizar para quê e para quem? Minimizar o custo médio por atendimento pode significar reduzir acesso de populações com condições complexas e caras. Isso é uma escolha política embutida num sistema técnico.

A questão da representatividade

Um ponto específico que vale aprofundar: qualquer modelo de IA em saúde só é generalizável para populações que estejam representadas nos dados de treinamento.

Modelos desenvolvidos nos Estados Unidos ou na Europa têm características epidemiológicas, genéticas e sociais distintas das populações brasileiras. Não é possível simplesmente pegar um modelo treinado em dados americanos e aplicar na população do interior do Nordeste sem validação robusta.

Isso vale também dentro do Brasil. A heterogeneidade das populações brasileiras é enorme. Modelos treinados em dados de São Paulo não necessariamente funcionam bem para populações da Amazônia.

Para a pesquisadora em saúde coletiva, isso significa: antes de usar ou propor um modelo de IA, verificar onde foram os dados de treinamento, quão representativa é essa amostra da população que você quer estudar, e quais são os planos de validação para o contexto específico.

Participação das comunidades: quem está na mesa

Um princípio central da saúde coletiva contemporânea é a participação das comunidades nas decisões que as afetam. Isso tem nome: controle social, participação comunitária, pesquisa participativa.

Quando sistemas de IA são desenvolvidos para serem usados em saúde pública, a questão de quem participou do processo de desenvolvimento é central. Comunidades afetadas por doenças negligenciadas, populações vulneráveis que vão ser alvo de intervenções informadas por algoritmos, essas pessoas precisam ter voz nos processos que definem como a tecnologia vai funcionar.

Isso raramente acontece hoje. A maioria dos sistemas de IA em saúde é desenvolvida por equipes técnicas com pouquíssima diversidade social e geográfica, com dados que super-representam populações de alta renda e países desenvolvidos, e com objetivos definidos por gestores e financiadores sem consulta às comunidades.

Nomear isso não é anti-tecnologia. É coerência com os valores da saúde coletiva.

O que muda para a pesquisadora que usa IA

Se você é pesquisadora em saúde coletiva e quer usar IA de forma responsável, algumas perguntas práticas:

Os dados que você vai usar são representativos da população que você quer estudar? Qual a cobertura dos sistemas de informação na região de interesse?

O modelo que você vai usar, ou que você vai desenvolver, tem potencial de beneficiar grupos vulneráveis ou de ampliar desigualdades existentes?

Como você vai declarar o uso de ferramentas de IA na metodologia? Quais decisões foram tomadas por algoritmos e quais foram tomadas por você?

As populações estudadas têm algum nível de participação nas perguntas que a pesquisa está fazendo?

Essas não são perguntas retóricas. São parte do rigor metodológico e ético que a área espera.

A oportunidade é real

Terminando sem deixar a impressão errada: as oportunidades são genuínas e merecem atenção.

A possibilidade de usar dados populacionais em escala para identificar disparidades de saúde com granularidade que estudos convencionais não conseguem é real. A capacidade de modelar cenários de doenças infecciosas em tempo próximo ao real, como foi feito durante a pandemia de COVID-19, tem valor inegável para a gestão pública.

O problema nunca foi a tecnologia em si, mas como ela é desenvolvida, por quem, para quem e com qual governança.

A saúde coletiva, com sua tradição crítica, está bem posicionada para contribuir com esse debate. Pesquisadoras da área que entendem tanto de epidemiologia quanto de determinantes sociais têm muito a dizer sobre como a IA em saúde precisa ser desenvolvida de forma justa.

Essa contribuição não vai acontecer do lado de fora da conversa. Vai acontecer quando pesquisadoras de saúde coletiva estiverem na mesa onde esses sistemas são discutidos, projetados e avaliados.

Perguntas frequentes

IA pode ser usada para análise de dados epidemiológicos em saúde coletiva?
Sim, e essa é uma das aplicações com maior potencial. Modelos de machine learning têm sido usados para identificar padrões em grandes bases de dados de saúde, modelar propagação de doenças, prever surtos e analisar determinantes sociais da saúde em escala populacional. O desafio é garantir que os modelos sejam treinados com dados representativos da população estudada e que os resultados sejam interpretados com conhecimento do contexto socioeconômico.
Como a IA pode ajudar na análise qualitativa em saúde coletiva?
Ferramentas de IA podem apoiar a análise de conteúdo de entrevistas, grupos focais e documentos de política de saúde, especialmente na fase de codificação inicial de grandes volumes de texto. Mas a interpretação dos dados dentro do contexto social, histórico e político que é central na saúde coletiva ainda requer o olhar humano. A IA pode processar, mas dificilmente consegue contextualizar no nível que a área exige.
Quais são os riscos éticos do uso de IA em dados populacionais de saúde?
Os principais são: viés algorítmico quando os modelos são treinados com dados de populações sub-representadas; risco de reidentificação de indivíduos em bases de dados anonimizadas; uso de dados de saúde para fins diferentes dos que foram consentidos; e exclusão de grupos vulneráveis das decisões sobre sistemas que os afetam. Na saúde coletiva, que tem compromisso com equidade, esses riscos têm peso ainda maior.
<