Propriedade Intelectual de Textos Gerados por IA
Quem é dono do que a IA escreve? Entenda os direitos autorais sobre textos gerados por IA e o impacto direto na sua pesquisa acadêmica.
Quem é dono do que a IA escreve?
Olha só: você passa a tarde ajustando prompts, revisando parágrafos, pedindo que a ferramenta reescreva mais três vezes. No final, o texto ficou bom. Mas aí vem a pergunta que muita gente ignora: isso é seu?
A resposta curta é: depende. A resposta honesta é que a lei ainda está tentando entender a pergunta.
Se você usa IA em sua pesquisa — e principalmente se você publica textos com apoio dessas ferramentas — entender o básico de propriedade intelectual sobre conteúdo gerado por IA não é opcional. Faz parte do que significa fazer ciência com responsabilidade.
O que a lei diz sobre autoria de textos
A Lei de Direitos Autorais brasileira (Lei 9.610/98) define o autor como “a pessoa física criadora de obra literária, artística ou científica”. Note a palavra: pessoa física. Humano. A IA, até onde a lei alcança hoje, não é autora de nada.
Isso tem uma consequência direta: um texto gerado integralmente por IA não tem proteção autoral no Brasil. Ninguém pode reivindicá-lo como obra protegida — nem você, nem a empresa de IA. É, juridicamente falando, algo que não tem dono no sentido formal.
Nos Estados Unidos, o U.S. Copyright Office adotou posição semelhante. Desde 2023, a agência tem negado registros de obras geradas exclusivamente por IA, exigindo contribuição humana criativa substancial para que a proteção se aplique.
Mas é justamente aqui que começa a zona cinzenta em que quase toda pesquisa com IA existe.
A zona cinzenta da co-criação
Na prática, nenhum pesquisador responsável simplesmente copia um texto da IA e cola na dissertação. O que acontece é um processo: você define o problema, elabora o prompt, avalia a resposta, reescreve, combina com outras fontes, reorganiza a estrutura, acrescenta seu raciocínio crítico.
Nesse processo há autoria humana. E essa autoria pode, sim, ser protegida.
O que não é protegível é a parcela gerada autonomamente pela ferramenta. O que é protegível é a seleção criativa, a reorganização, as adições, as escolhas editoriais — tudo o que você fez como ser humano pensante sobre o material bruto.
É parecido com uma colagem. As fotos usadas podem ter outros donos. Mas a obra que você criou com elas — a curadoria, o arranjo, o sentido construído — pode ser sua. O problema prático é que ninguém consegue separar com precisão “o que a IA fez” de “o que eu fiz”. E é aí que a transparência entra como proteção real.
Por que a transparência te protege juridicamente
Quando você declara que usou IA no seu trabalho, faz mais do que seguir uma norma ética. Você está criando registro público de que houve processo criativo humano envolvido. Está dizendo: eu estava no controle.
Isso importa juridicamente, mas importa também profissionalmente. Em caso de questionamento de autoria, a documentação do seu processo — os prompts que você usou, as versões que revisou, as escolhas editoriais que fez — é o que te coloca como responsável intelectual pelo trabalho.
O Método V.O.E., nesse contexto, não é apenas estratégia de escrita. É rastreabilidade. Ao Validar, Organizar e Executar o processo com consciência, você deixa claro que há um sujeito cognitivo por trás da pesquisa. A IA é instrumento; você é o autor.
A camada que a maioria dos pesquisadores ignora: os termos de uso
Cada plataforma de IA tem uma política diferente sobre o que acontece com o texto que você gera. Algumas são explícitas: você retém os direitos sobre os outputs. Outras são vagas. Algumas reservam para si o direito de usar seus inputs e outputs para treinar modelos futuros.
Isso cria um problema real. Se você gerou um texto com uma ferramenta e os termos dizem que ela tem direitos sobre os outputs, o que acontece quando você publica isso como parte de uma dissertação? Seu orientador assinou um trabalho com partes potencialmente reivindicadas por uma empresa privada?
Não é cenário apocalíptico — é uma pergunta que instituições sérias já estão fazendo. E que você, como pesquisador, deveria fazer também.
Antes de usar qualquer ferramenta de IA em trabalhos acadêmicos formais, procure nos termos de uso as seções sobre “ownership of outputs”, “intellectual property” ou “content rights”. Se a linguagem for ambígua ou ausente, considere isso um risco a ser gerenciado.
O que as universidades estão fazendo — e o que ainda falta
Universidades brasileiras e internacionais estão correndo para criar políticas sobre uso de IA em pesquisa. A maioria ainda está em fase de consulta ou minuta. Algumas proibiram usos específicos; outras criaram comitês de acompanhamento.
O problema é que as políticas institucionais chegam sempre depois da prática. Os pesquisadores já estão usando as ferramentas; as regras estão sendo escritas sobre uma realidade que se formou sem elas.
Nesse vácuo, alguns princípios se aplicam independentemente de onde a regulação vai chegar:
Transparência — declare o uso sempre, mesmo quando não for exigido.
Responsabilidade intelectual — você é o autor do trabalho independentemente das ferramentas usadas. Isso inclui responder por qualquer erro ou imprecisão no resultado final.
Rastreabilidade do processo — mantenha registro das etapas, especialmente em pesquisas que serão publicadas ou avaliadas formalmente.
Verificação independente — nunca publique como fato estabelecido nada que a IA afirmou sem conferir em fonte primária confiável.
O debate jurídico que está só começando
Precisamos nomear isso com clareza: estamos num momento de transição jurídica real. A legislação sobre IA está sendo construída em vários países ao mesmo tempo, e as decisões dos próximos anos vão moldar o ambiente em que a pesquisa científica opera por décadas.
No Brasil, o Projeto de Lei 2338/2023 — o chamado PL de IA — está em discussão no Congresso. Ele toca em questões de responsabilidade por sistemas de IA, mas a propriedade intelectual sobre outputs ainda permanece em zona nebulosa na redação atual.
Na Europa, o AI Act foi aprovado e classifica sistemas por nível de risco, mas também não resolve de forma direta a questão autoral sobre conteúdos gerados.
O que isso significa para você hoje? Significa que você está operando sem rede de proteção completa. E que desenvolver critérios próprios baseados em princípios éticos sólidos é mais importante do que esperar a lei te dizer o que fazer.
O que fazer de concreto agora
Não precisa se tornar especialista em direito para ser um pesquisador responsável no uso de IA. Mas alguns comportamentos concretos fazem diferença real:
Documente seu processo ao usar IA. Uma nota de rodapé ou seção de métodos já cumpre boa parte do dever ético e cria registro do seu envolvimento criativo.
Verifique os termos da ferramenta que você usa regularmente. Procure pela política de propriedade intelectual — ela existe em algum lugar dos termos de serviço.
Nunca abandone o controle intelectual sobre o trabalho. A IA sugere; você decide. Esse é o princípio básico da autoria responsável, antes mesmo de qualquer discussão jurídica.
Acompanhe as políticas da sua instituição. Estão evoluindo rápido, e você não quer ser pego de surpresa durante uma defesa ou processo de publicação.
Converse com seu orientador antes de usar IA em trabalhos formais avaliados. Saber a posição do programa faz parte de trabalhar de forma profissional.
A autoria continua sendo sua responsabilidade
A propriedade intelectual, no fim, é secundária à responsabilidade intelectual. Você pode não ter certeza sobre quem “detém os direitos” sobre cada frase que a IA ajudou a formatar. Mas você sabe — ou deveria saber — que assinar um trabalho científico significa assumir responsabilidade total pelo seu conteúdo.
Isso não muda com o uso de IA. Na verdade, reforça a necessidade de um processo de produção consciente, documentado e crítico. Exatamente o que o uso ético das ferramentas de IA na pesquisa deveria ser.
Faz sentido? A questão da propriedade intelectual sobre textos gerados por IA não vai ser resolvida em breve. Mas isso não é razão para não pensar sobre ela. É justamente a incerteza que torna o pensamento crítico mais necessário agora do que nunca.