IA & Ética

IA pode ser coautora de artigo científico? A resposta real

Por que periódicos científicos não aceitam IA como coautora, o que dizem as políticas editoriais e como declarar o uso de IA corretamente.

ia-academica etica-pesquisa artigo-cientifico autoria chatgpt

A pergunta que pesquisadoras fazem em voz baixa

Ainda ouço essa dúvida de pesquisadoras que usaram o ChatGPT ou outra ferramenta de IA para ajudar na escrita de um artigo e não sabem como lidar com isso. Algumas acham que precisam esconder. Outras chegam ao extremo oposto e se perguntam se deveriam listar a IA como coautora para ser transparente.

Autoria científica é a atribuição de responsabilidade intelectual e ética por uma pesquisa. Não é um crédito honorário, não é reconhecimento de contribuição, não é um marcador de quem digitou mais palavras. É responsabilidade: pelo que foi afirmado, pelo que foi omitido, pelos dados usados, pelos erros cometidos, e pela possibilidade de retratação se algo der errado.

Sistemas de IA não podem assumir responsabilidade. Não têm personalidade jurídica, não podem responder a um comitê de ética, não podem ser contactados para esclarecimentos editoriais, não podem retratar um artigo. Por isso, IA não pode ser coautora. Esse é o raciocínio, não apenas a regra.


O que dizem as grandes editoras

As principais editoras científicas se posicionaram sobre o tema de forma bastante convergente a partir de 2023.

A Nature foi uma das primeiras a publicar uma política clara: ferramentas de IA não podem ser listadas como autoras. A editora exige que qualquer uso de IA na produção do artigo seja descrito na seção de métodos. Isso inclui uso para escrita, análise de dados, geração de imagens ou qualquer outra função que tenha influenciado o conteúdo.

A Elsevier tem política similar. IA não é autora. O uso de ferramentas de IA precisa ser declarado em seção específica de transparência. Os autores humanos são responsáveis por verificar e validar qualquer conteúdo gerado por IA incluído no manuscrito.

A Springer Nature (grupo que inclui a Nature) mantém a mesma linha e acrescentou que os autores precisam garantir que conteúdos gerados por IA não violam direitos autorais, não contêm dados fabricados e não introduzem imprecisões que os autores não verificaram.

A Wiley e a PLOS têm políticas equivalentes. O padrão do setor é uniforme: IA não é autora, uso deve ser declarado, responsabilidade é sempre humana.


Por que a transparência é o ponto central

A proibição da coautoria de IA não é apenas uma questão formal. Ela toca num princípio mais profundo da ciência: a rastreabilidade da responsabilidade.

Quando um artigo é publicado e alguém descobre depois um erro nos dados ou uma violação ética, existe um processo de investigação que depende de conseguir contatar e responsabilizar os autores. Isso é possível com pessoas. Com sistemas de IA, não é.

A falta de transparência sobre o uso de IA cria um problema diferente. Se uma pesquisadora usou um modelo de linguagem para gerar partes da revisão de literatura e não declarou isso, e posteriormente descobrem que aquele trecho contém informações fabricadas pelo modelo, a responsabilidade recai sobre ela de qualquer forma. A diferença é que agora existe também uma questão de desonestidade, não só de erro.

Declarar o uso de IA não é fraqueza metodológica. É parte do rigor que a ciência exige.


O que pode e o que não pode (com IA em artigos)

Essa linha não é universalmente fixa, varia por periódico e área, mas existe um padrão emergente que cobre a maioria dos casos.

Usos geralmente aceitos com declaração:

  • Assistência na revisão gramatical e ortográfica
  • Melhorias de clareza e fluidez de texto em língua estrangeira
  • Tradução de seções com revisão humana posterior
  • Geração de esboços iniciais que foram substancialmente revisados e verificados pelos autores

Usos que a maioria das editoras proíbe ou considera problemáticos:

  • Geração de dados, resultados ou análises estatísticas sem verificação humana
  • Produção de revisão de literatura sem checagem das fontes citadas
  • Geração de afirmações científicas que o autor não pode verificar de forma independente
  • Criação de imagens, gráficos ou figuras que representam dados sem verificação dos valores

O critério geral é: qualquer conteúdo gerado por IA que entrar no artigo precisa ter sido verificado e validado pelos autores humanos. Se você não consegue verificar, não inclui.


O problema específico das alucinações

Modelos de linguagem como o ChatGPT produzem conteúdo plausível, não conteúdo verdadeiro. A diferença é enorme em contexto científico.

Um modelo pode gerar uma citação bibliográfica com autor, título, ano e periódico que parece completamente real, mas que não existe. Pode produzir um parágrafo sobre um estudo que nunca foi publicado. Pode afirmar dados estatísticos que nenhuma pesquisa produziu.

Isso não é malícia do modelo, é a natureza do funcionamento dele. Ele prevê o que viria a seguir num texto semelhante, e às vezes essa previsão produz algo factualmente errado.

Para artigos científicos, isso é um risco sério. Uma referência inventada numa revisão de literatura de tese pode passar despercebida no processo de orientação e ser identificada apenas na banca ou, pior, depois da publicação. A retratação de um artigo por referências fabricadas existe, e é constrangedora.

A regra prática é simples: se você usou IA para gerar referências ou afirmações, verifique cada uma delas na fonte original antes de incluir no texto. Não na abstração do Google Scholar: na fonte primária, aberta na tela, com os dados conferidos.


Declarando o uso de IA corretamente

A forma exata varia por periódico, então sempre cheque as instruções para autores da revista específica. Mas o padrão que está emergindo na maioria dos periódicos inclui:

Uma declaração explícita em seção dedicada (muitos periódicos agora têm campo específico no sistema de submissão) ou como parte da seção de métodos. A declaração precisa especificar: qual ferramenta foi usada, para que finalidade e em qual parte do processo.

Exemplo aceitável: “A versão em inglês deste manuscrito passou por revisão assistida por ferramenta de inteligência artificial para clareza e gramática. O conteúdo científico, as análises e as conclusões são de responsabilidade exclusiva dos autores.”

Exemplo insuficiente: “Foi utilizada IA na preparação deste artigo.” Vago demais. Não especifica ferramenta, não especifica uso, não delimita responsabilidade.


O que muda na prática para quem já usa IA na escrita

Se você já usa ferramentas de IA na escrita de artigos e dissertações, o que muda com esse contexto?

Basicamente, três coisas. Primeiro: sempre declare, não esconda. A transparência é o que separa uso legítimo de violação de política editorial. Segundo: verifique tudo que a IA gerou antes de incluir, especialmente referências, dados e afirmações empíricas. Terceiro: conheça a política específica do periódico para onde você vai submeter. Elas variam e algumas são mais restritivas que outras.

O uso responsável de IA em pesquisa é um tema que o Método V.O.E. (Velocidade, Organização, Execução Inteligente) aborda diretamente: ferramentas que aceleram o processo sem comprometer o rigor são bem-vindas. Ferramentas usadas de forma opaca que introduzem riscos de integridade são o problema, não a tecnologia em si.


A questão não vai sumir

Periódicos continuam atualizando suas políticas, os modelos de IA continuam se tornando mais sofisticados, e o debate sobre o papel dessas ferramentas na ciência está longe de ser encerrado.

O que está claro por enquanto é que a responsabilidade humana sobre o conteúdo científico publicado é inegociável. Independente de quais ferramentas forem usadas no processo, alguém de carne e osso precisa poder dizer: “Eu verifiquei isso, eu me responsabilizo por isso, e eu posso responder por isso.”

Essa é a condição da autoria científica. E é por isso que IA não pode assinar um artigo.

Para aprofundar como usar ferramentas de IA de forma responsável na pesquisa acadêmica, veja também a página sobre o Método V.O.E. e os recursos sobre escrita acadêmica.

Perguntas frequentes

ChatGPT pode ser listado como coautor em artigo científico?
Não. As principais editoras científicas, incluindo Nature, Elsevier, Springer e Wiley, têm políticas explícitas proibindo IA de ser listada como coautora ou autora. O motivo central é que autoria implica responsabilidade pela pesquisa, incluindo a possibilidade de responder por erros, retratar trabalho e assumir consequências éticas. Sistemas de IA não podem fazer isso. O uso de ferramentas de IA na produção do artigo precisa ser declarado na seção de métodos ou em nota de transparência.
Como declarar o uso de IA na escrita de um artigo científico?
A forma exata varia por periódico, mas o padrão emergente é incluir uma declaração explícita na seção de métodos ou em nota ao final do artigo descrevendo quais ferramentas foram usadas, para quê e em qual parte do processo. Por exemplo: 'A revisão gramatical da versão em inglês foi assistida por [ferramenta], e o texto final foi revisado e verificado pelos autores.' Nunca use IA para gerar dados, resultados ou afirmações que você não possa verificar e assinar.
Usar IA para escrever um artigo é plágio?
Depende de como é usado e do que a política do periódico determina. Usar IA para refinar frases, corrigir gramática ou melhorar clareza, com declaração transparente, não é plágio sob a maioria das definições atuais. Usar IA para gerar seções inteiras sem declaração e apresentá-las como escrita própria pode ser considerado desonestidade acadêmica ou violação das políticas editoriais, dependendo do periódico. A opacidade é o problema central, não a ferramenta em si.

Leia também

Receba estratégias de escrita acadêmica direto no seu feed

Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.