IA & Ética

IA Multimodal na Pesquisa: Texto, Imagem e Áudio

Modelos de IA multimodal processam texto, imagem e áudio juntos. O que isso muda para pesquisadores e como usar com responsabilidade na ciência.

ia-na-pesquisa ia-multimodal inteligencia-artificial metodologia pos-graduacao

Quando a IA começa a ver e ouvir além do texto

Vamos lá. Por anos, quando falávamos de IA na pesquisa, o foco era em modelos de linguagem: ferramentas que leem e produzem texto. Úteis para revisão de literatura, organização de referências, revisão de escrita.

Mas o campo mudou. Rápido.

Os modelos multimodais de IA são capazes de processar texto, imagem e áudio de forma integrada. Isso significa que a mesma ferramenta que lê seu artigo pode também analisar o gráfico que você inseriu no documento, transcrever a entrevista que você gravou no campo, e identificar padrões em imagens de microscopia.

Para o pesquisador, essa mudança abre possibilidades reais. E levanta questões éticas que ainda estamos aprendendo a fazer.

O que são modelos multimodais e por que importam para ciência

Um modelo de linguagem convencional trabalha com tokens de texto. Você digita, ele responde. Simples assim.

Um modelo multimodal processa representações de diferentes modalidades de dados: palavras, pixels, formas de onda sonoras. Ele foi treinado em volumes massivos de conteúdo em múltiplos formatos, o que permite que ele “entenda” (operacionalmente, não filosoficamente) o que uma imagem mostra, o que um áudio diz, e como essas informações se relacionam com um texto.

Na prática, isso significa que pesquisadores podem usar essas ferramentas para coisas que antes exigiam softwares especializados separados ou análise manual intensiva:

Transcrição de entrevistas qualitativas em áudio. Descrição automática de imagens para anotação de banco de dados. Identificação de elementos visuais em documentos históricos escaneados. Análise de expressões faciais em vídeos de pesquisa comportamental. Cruzamento entre dados de tabelas e narrativas textuais de um mesmo corpus.

Isso não significa que a IA faz tudo isso com perfeição. Significa que ela faz com uma rapidez que muda a escala do que é possível.

Casos de uso reais em diferentes áreas

Olha só como isso aparece em campos distintos, porque a multimodalidade não é exclusividade de nenhuma área.

Na educação e ciências sociais, pesquisadores que trabalham com grupos focais ou entrevistas em vídeo podem usar IA multimodal para transcrição inicial, identificação de temas recorrentes na fala e até análise de comunicação não verbal, desde que com os devidos cuidados éticos.

Na área de saúde, imagens de exames como raios-X, histologia e tomografia já são analisadas por modelos multimodais em pesquisa. O pesquisador usa a ferramenta para processar grandes volumes de imagens, identificar padrões candidatos, e depois valida manualmente os casos de interesse.

Em humanidades digitais, documentos históricos manuscritos, fotografias de arquivo e gravações de folclore oral podem ser processados de forma integrada, cruzando informações visuais e textuais que antes precisavam de análise separada.

Em linguística aplicada e análise do discurso, a análise multimodal de materiais audiovisuais de mídia, discursos políticos em vídeo e interações em videoconferências se torna muito mais escalável.

O que ainda é problema (e é preciso nomear)

A velocidade com que essas ferramentas chegaram à pesquisa não foi acompanhada pela velocidade de atualização dos protocolos éticos e das diretrizes metodológicas. Esse descompasso cria problemas concretos.

O mais crítico envolve dados de participantes de pesquisa. Se você coletou áudio de entrevistas com consentimento para “gravação e transcrição manual”, usar esses mesmos áudios em um modelo de IA pode estar fora do escopo do que foi autorizado. O mesmo vale para imagens e vídeos de participantes. O protocolo submetido ao Comitê de Ética precisa prever explicitamente o uso de IA no processamento dos dados.

Isso não é burocracia por burocracia. É porque modelos multimodais processam dados em servidores externos, potencialmente armazenam conteúdo para retreinamento, e podem comprometer o anonimato de participantes de formas que a anonimização tradicional não antecipava.

Tem também o problema da validade metodológica. Quando você usa IA para análise qualitativa, o modelo não é um analista neutro. Ele traz os vieses do seu treinamento para a interpretação dos dados. Uma análise temática feita por IA não é equivalente a uma análise temática feita por um pesquisador seguindo um protocolo estabelecido, por mais que produza resultados superficialmente parecidos.

Isso não invalida o uso. Invalida o uso não declarado e não crítico.

Como usar de forma metodologicamente honesta

A boa notícia é que há formas de integrar IA multimodal à pesquisa sem comprometer a integridade metodológica. A chave é transparência e proporcionalidade.

Declare o uso na seção de metodologia. Descreva qual ferramenta foi usada, para qual finalidade, e como os resultados foram verificados ou validados por você. Isso vale tanto para transcrição como para análise de imagens ou identificação de padrões.

Não delegar análise interpretativa para a IA. Você pode usar o modelo para processar e organizar dados, para gerar categorias preliminares, para sinalizar padrões candidatos. A interpretação do que esses padrões significam no contexto da sua questão de pesquisa é sua.

Verificar os resultados. Modelos multimodais erram. Transcrevem errado, identificam incorretamente, geram “análises” que parecem coerentes mas não refletem o que está no dado. Amostragem aleatória para validação manual não é opcional.

Atualizar o TCLE quando necessário. Se a pesquisa ainda está em campo e o protocolo não previa uso de IA, consulte o Comitê de Ética sobre como proceder.

Quando o modelo erra e o pesquisador não percebe

Existe um risco específico ao usar IA multimodal que merece atenção separada: o erro confiante.

Modelos multimodais geram outputs que parecem muito seguros. Uma transcrição de 40 minutos de entrevista pode ter 3 erros sutis de nome, uma frase interpretada com sentido oposto ao original, um termo técnico transcrito errado. Se você não revisar, esses erros entram na sua análise. Se você usa a transcrição para fazer análise de frequência de temas, um erro pode distorcer os resultados de formas que são difíceis de detectar depois.

O mesmo vale para análise de imagens. Um modelo pode “ver” um padrão em uma imagem de microscopia que não existe, ou deixar de identificar um que existe. A validação humana não é uma etapa opcional que você faz quando tem tempo. É parte do método.

Existe também o risco de viés algorítmico amplificado. Se o modelo foi treinado predominantemente em dados de um grupo demográfico, suas “análises” sobre outros grupos vão carregar esse viés de forma não transparente. Em pesquisa com populações sub-representadas, isso é especialmente problemático.

Formação e letramento em IA multimodal para pesquisadores

Boa parte dos pesquisadores que chegam hoje na pós-graduação tem contato com ferramentas multimodais de IA fora da academia, mas sem treinamento metodológico para usá-las em pesquisa.

Isso cria uma situação estranha: o mestrando usa GPT-4V para analisar imagens, sabe usar a ferramenta tecnicamente, mas não sabe como relatar o uso na metodologia, não avaliou os riscos para os participantes da pesquisa, e não tem critérios para avaliar quando o modelo está certo ou errado.

A formação em letramento em IA precisa chegar às disciplinas de metodologia da pesquisa. Não para ensinar a usar as ferramentas (isso os alunos já sabem), mas para ensinar a pensar criticamente sobre os resultados que elas produzem e sobre as implicações éticas do uso.

Enquanto isso não acontece de forma sistemática, cabe ao pesquisador buscar essa formação e ao orientador criar espaço para essa conversa nas reuniões de orientação.

A fronteira que ainda está sendo negociada

O que os modelos multimodais tornam possível muda a natureza de certas metodologias de pesquisa. Análises que antes exigiam meses de trabalho de um grupo de pesquisa podem ser iniciadas em dias. Escalas de corpus que eram impraticáveis se tornam viáveis.

Isso não é trivial. Significa que questões de pesquisa que antes ficavam fora do alcance de grupos pequenos podem agora ser investigadas.

Mas também significa que a linha entre pesquisa conduzida por pesquisador e pesquisa conduzida por algoritmo precisa ser pensada com mais cuidado do que estamos pensando agora.

O uso ético de IA na ciência não é sobre proibir essas ferramentas. É sobre integrá-las com consciência metodológica, transparência e o mesmo rigor que aplicamos a qualquer outra ferramenta de pesquisa.

Faz sentido? A IA multimodal está aqui, está sendo usada, e vai continuar sendo usada, com ou sem políticas claras. O que pesquisadores e programas podem controlar é a qualidade da reflexão que acompanha esse uso.

Uma pesquisa que usa IA e declara isso de forma transparente, com raciocínio sobre as escolhas metodológicas e os limites da ferramenta, é metodologicamente mais honesta do que uma pesquisa que usa IA em silêncio ou uma pesquisa que evita a ferramenta por desconforto sem critério.

Não existe posição neutra nesse debate. Você já está participando dele, seja declarando o uso ou não declarando.

Esse é o padrão que o Método V.O.E. tenta ajudar a construir: não uma lista de proibições, mas uma postura reflexiva sobre como e por que usamos cada ferramenta que chega até nós. Sobre as próprias escolhas e os critérios que as orientam. Isso vale para IA multimodal, para softwares de análise qualitativa, para qualquer tecnologia que o campo for incorporando ao longo do tempo.

Se você está em dúvida sobre como relatar o uso de IA multimodal no seu projeto, começa pelo mais simples: escreve o que fez, com qual ferramenta, com qual objetivo, e como verificou os resultados. Esse nível de transparência já coloca você à frente de boa parte do que está sendo publicado hoje. E é um ponto de partida honesto para a conversa metodológica que ainda precisa acontecer nos programas.

Perguntas frequentes

O que é IA multimodal e como ela difere dos modelos de linguagem comuns?
IA multimodal é um sistema de inteligência artificial capaz de processar e integrar diferentes tipos de dados simultaneamente, como texto, imagem, áudio e vídeo. Diferente dos modelos de linguagem tradicionais que trabalham apenas com texto, os modelos multimodais podem, por exemplo, analisar uma imagem e gerar uma descrição, transcrever uma entrevista em áudio, ou cruzar dados de um gráfico com o texto de um artigo. Isso amplia muito o escopo de aplicações para pesquisa.
Posso usar IA multimodal para analisar entrevistas de pesquisa qualitativa?
Sim, e há usos legítimos nessa área. Modelos multimodais podem auxiliar na transcrição de áudio, na organização inicial de dados para análise temática e na identificação de padrões em grandes volumes de material qualitativo. No entanto, a interpretação dos significados e a análise crítica do conteúdo devem ser feitas pelo pesquisador. O uso precisa ser explicitado na metodologia da pesquisa.
Quais são os riscos éticos do uso de IA multimodal em pesquisa com seres humanos?
Os principais riscos incluem: comprometer o anonimato de participantes (rostos em imagens podem ser reconhecidos por sistemas de IA), usar gravações sem consentimento específico para análise por IA, e a possibilidade de que o modelo introduza vieses na interpretação de materiais qualitativos. Todo uso de IA multimodal com dados de participantes precisa estar previsto no protocolo aprovado pelo Comitê de Ética em Pesquisa.
<