IA & Ética

Como declarar IA no CEP e na Plataforma Brasil

Pesquisar com IA exige declaração no CEP? Entenda por que o uso de inteligência artificial no protocolo de ética virou uma exigência real.

etica-pesquisa integridade-academica cep plataforma-brasil ia-pesquisa

O CEP nunca precisou falar de IA. Até agora.

Olha só: quando o sistema de ética em pesquisa do Brasil foi construído, inteligência artificial era tema de ficção científica. O formulário da Plataforma Brasil foi pensado para perguntas sobre consentimento informado, riscos aos participantes, coleta de dados biológicos. Ninguém imaginou que, décadas depois, pesquisadores estariam usando um software de linguagem para ajudar na análise de entrevistas ou na revisão de literatura.

E agora estamos aqui. A IA está dentro dos laboratórios, das dissertações, das metodologias. Mas os protocolos submetidos ao CEP, na grande maioria, continuam fingindo que ela não existe.

Isso é um problema. E vai ficar maior.

Por que a omissão de IA no protocolo de ética é um risco real

A ética em pesquisa não é burocracia pela metade. Quando você submete um projeto ao Comitê de Ética em Pesquisa, está declarando como sua pesquisa vai funcionar: quem serão os participantes, como os dados serão coletados, como a privacidade será protegida, quais ferramentas serão usadas no processo.

Se você usa IA em qualquer etapa desse processo (e muitos pesquisadores usam, às vezes sem perceber que estão cruzando uma linha de relevância metodológica) e não declara, há um problema de integridade na informação fornecida ao comitê.

Não se trata de punição imediata. O CEP raramente vai atrás de quem não declarou. O risco é outro: quando a banca de defesa questiona sua metodologia, quando o periódico pede detalhes sobre análise de dados, quando um futuro pesquisador tenta replicar seu trabalho, a ausência de transparência vira um buraco que ninguém consegue preencher.

A Portaria CNPq 2664/2026, que já discutimos aqui no blog, estabeleceu diretrizes claras sobre declaração de IA em pesquisa. O protocolo de ética é parte dessa cadeia de transparência, não algo separado dela.

E se você está pensando “mas o meu orientador nunca comentou nada sobre isso”, é porque muitos orientadores também ainda não sabem. Voltamos a esse ponto mais adiante.

O que conta como “uso de IA” que precisa ser declarado

Antes de pensar em como declarar, vale entender o que entra no escopo. Nem todo uso de ferramenta digital precisa aparecer no protocolo. O que importa é quando a IA participa ativamente da metodologia da pesquisa.

Alguns exemplos que, sim, precisam aparecer no protocolo:

Transcrição automática de entrevistas usando ferramentas como Whisper ou serviços baseados em reconhecimento de voz com IA. Quando a ferramenta não é apenas uma gravação, mas interpreta e converte fala em texto, ela está participando da produção dos dados.

Análise temática ou de conteúdo assistida por IA. Usar o NVivo com módulos de IA para identificar categorias, aplicar codificação automática em entrevistas ou usar o Atlas.ti com recursos de linguagem: tudo isso é metodologia, não só apoio.

Processamento de literatura para revisão sistemática ou narrativa com ferramentas como Elicit, Consensus ou ResearchRabbit. Se a IA selecionou artigos, resumiu estudos ou organizou a síntese de evidências, isso precisa aparecer.

Análise estatística ou textual com suporte de modelos de linguagem. Usar ChatGPT para interpretar dados, sugerir correlações ou verificar inferências entra nessa categoria.

Geração ou refinamento de roteiro de entrevista ou questionário com auxílio de IA generativa. Quando a ferramenta participou da construção dos instrumentos de coleta, ela influenciou o dado desde o início.

O que geralmente não precisa de declaração específica no protocolo: usar corretor ortográfico, buscar artigos no Google Scholar ou consultar um chatbot para entender um conceito teórico antes de prosseguir com a leitura. Esses usos são instrumentais, não metodológicos.

O critério é simples: se a ferramenta participou da geração, coleta ou análise de dados da pesquisa, ela entra no protocolo. Se foi só apoio periférico, você pode mencioná-la na dissertação sem precisar atualizar o CAAE. A distinção entre uso metodológico e uso instrumental é o divisor de águas para saber o que precisa ser formalizado.

Faz sentido?

Onde declarar na Plataforma Brasil

A Plataforma Brasil não tem um campo específico chamado “inteligência artificial”. Isso não significa que você não precisa declarar: significa que você precisa saber onde encaixar a informação.

A seção de metodologia do formulário de cadastro é o lugar certo. É lá que você descreve como a pesquisa vai ser conduzida, quais ferramentas e instrumentos serão utilizados, e como os dados serão processados e analisados.

Quando o projeto já foi submetido sem a menção à IA e você passou a usar essas ferramentas depois da aprovação, a situação exige uma emenda. Uma emenda ao protocolo é o mecanismo formal para comunicar mudanças metodológicas ao CEP sem precisar recomeçar todo o processo. É mais trabalhoso do que declarar desde o início, mas é o caminho correto.

O nível de detalhe que o comitê espera não é um manual técnico. É suficiente que fique claro: qual ferramenta foi usada, para qual função específica dentro da pesquisa, e como o pesquisador supervisionou e validou o que a IA produziu.

A supervisão humana é o ponto mais importante. Não basta dizer que a IA foi usada: é preciso mostrar que os resultados passaram por avaliação crítica do pesquisador. Isso é o que distingue um uso metodologicamente responsável de um uso mecânico e acrítico.

O que acontece quando o orientador não sabe o que fazer

Vou ser direta: a maioria dos orientadores ativos hoje construiu suas carreiras antes da IA generativa existir. Muitos nunca passaram pela situação de precisar declarar uso de ferramenta de linguagem em um protocolo de ética. Então, quando o orientando chega com essa dúvida, a resposta mais comum é “não sei, pergunta ao secretário do programa” ou, pior, “não precisa declarar”.

A segunda resposta é arriscada. E o risco é do pesquisador, não do orientador.

Se o seu orientador não sabe como lidar com isso, o caminho mais seguro é levar a questão diretamente ao CEP da sua instituição. A maioria dos comitês tem secretaria acessível por e-mail e responde a consultas sobre casos específicos antes da submissão formal. Perguntar antes é sempre mais produtivo do que corrigir depois de aprovado.

Outra possibilidade é consultar a coordenação do seu programa de pós-graduação. Algumas universidades já publicaram diretrizes internas sobre IA na pós-graduação. Se a sua está entre elas, a coordenação vai saber.

Se você não encontrou nada na sua instituição, isso não significa que não existe orientação. Pode significar que a universidade ainda não se posicionou formalmente. Nesse caso, o caminho conservador é declarar. Declarar o que você faz nunca vai gerar problema. Não declarar, pode.

O que a banca de defesa vai perguntar

Aqui entra uma dimensão prática que muitos pesquisadores só percebem tarde: a banca de defesa vai fazer perguntas sobre metodologia. Se você usou IA em alguma etapa, é muito provável que alguém da banca pergunte como foi feito, qual ferramenta, e como você garantiu a qualidade do processo.

Se a declaração no CEP está alinhada com o que você descreve na dissertação, a resposta é fácil. Se você nunca mencionou a IA no protocolo de ética, mas ela aparece na seção de metodologia da dissertação, você cria uma inconsistência documental que pode levantar dúvidas sobre o processo como um todo.

Transparência não é sobre se defender. É sobre ter clareza metodológica suficiente para explicar o que você fez e por quê. Quando você declara o uso de IA desde o protocolo, está construindo uma narrativa consistente da pesquisa, da aprovação no CEP até a defesa.

A declaração não é o problema. A omissão é.

Tem um padrão que aparece repetido quando o assunto é IA e ética acadêmica: o medo de declarar, porque declarar parece chamar atenção para algo que poderia passar despercebido.

Mas aqui está a lógica real: o CEP não existe para punir pesquisadores que usam tecnologia. Existe para garantir que a pesquisa seja conduzida com rigor, transparência e respeito pelos participantes. Quando você declara o uso de IA com clareza, e mostra que houve supervisão humana adequada, você não está se incriminando. Você está demonstrando exatamente o tipo de consciência metodológica que o sistema de ética espera.

No Método V.O.E., a transparência metodológica aparece na fase de Orientação: antes de escrever, é preciso entender exatamente o que você está fazendo e por quê. Isso inclui saber quais ferramentas fazem parte do seu processo e ter clareza suficiente para colocá-las no papel.

Declarar o uso de IA no protocolo de ética é, no fundo, só mais uma forma de fazer isso. É trazer para o campo formal o que você já pratica no campo metodológico.

Esse cuidado de documentar cada passo do processo metodológico também vai aparecer em outras partes do seu trabalho. Quando você já tem o hábito de nomear as ferramentas que usa e o papel que elas exercem, a seção de metodologia da dissertação fica mais fácil de escrever, as perguntas da banca ficam mais fáceis de responder, e o artigo derivado do trabalho fica mais fácil de submeter.

A pesquisa mais segura não é a que esconde as ferramentas que usou. É a que sabe nomear cada escolha metodológica com precisão e confiança, inclusive quando essa escolha é uma ferramenta de inteligência artificial.

Perguntas frequentes

Como declarar o uso de IA no protocolo do CEP?
O uso de IA deve ser descrito na seção de metodologia do protocolo submetido na Plataforma Brasil. Informe quais ferramentas foram utilizadas, em que etapas da pesquisa e como os resultados foram verificados pelo pesquisador. A transparência sobre o papel da IA no processo é o ponto central da declaração.
O CEP reprova protocolo de pesquisa que menciona uso de IA?
Não necessariamente. O CEP avalia se o uso da ferramenta compromete a integridade, a privacidade dos participantes e a qualidade metodológica. Um protocolo que descreve o uso de IA com clareza — incluindo limitações e verificações humanas — tende a ser bem recebido. O problema está em omitir, não em declarar.
O que colocar na seção de metodologia da Plataforma Brasil sobre inteligência artificial?
Descreva a ferramenta usada (ex: ChatGPT, NVivo com IA, Atlas.ti), em que etapa ela foi aplicada (transcrição, análise temática, revisão de texto), e como o pesquisador supervisionou e validou os resultados. Evite termos vagos como 'foi usada IA para apoio'. Seja específico sobre função e supervisão humana.
<