Direitos Autorais e IA na Ciência: Marco Legal
Entenda o marco legal dos direitos autorais sobre conteúdo gerado por IA na pesquisa científica: o que a lei protege, o que ela ignora e o que isso muda para você.
A lei que ainda não entendeu a IA — e o que isso significa para você
Vamos lá. Quando você usa uma ferramenta de IA para ajudar a escrever sua revisão de literatura ou refinar a discussão do seu artigo, está entrando num território jurídico que os legisladores brasileiros ainda estão tentando mapear.
Não é alarmismo. É o estado real das coisas em 2026: a lei brasileira de direitos autorais foi escrita para um mundo sem IA, e as atualizações estão chegando devagar. O que você precisa entender são os princípios que regem esse território hoje, antes que as regras definitivas cheguem.
O que diz a Lei 9.610/98 — a base de tudo
A Lei de Direitos Autorais do Brasil (Lei 9.610/98) é o texto fundador de toda discussão sobre autoria no país. E ela é clara numa coisa: autor é pessoa física. O artigo 11 define diretamente: “Autor é a pessoa física criadora de obra intelectual.”
Isso significa que, pela legislação atual, nenhuma IA pode ser autora. Nem o ChatGPT, nem o Gemini, nem qualquer outra ferramenta. Ferramentas não têm personalidade jurídica, não têm intenção criativa reconhecida pela lei, e não podem assinar contratos ou reivindicar direitos.
O que não significa que o problema esteja resolvido. Significa que a lei simplesmente ainda não abordou boa parte das situações que já existem na prática.
O que a lei protege — e por que isso importa para pesquisadores
Direitos autorais protegem obras intelectuais originais: textos, composições, fotografias, programas de computador, entre outros. Para uma obra ter proteção, ela precisa ter:
Originalidade: fruto de escolhas criativas humanas, não de processos mecânicos ou aleatórios.
Autoria identificável: atribuída a uma pessoa física (ou, em casos específicos, a pessoas jurídicas como no caso de obras coletivas).
Expressão concreta: a ideia em si não é protegida, mas sim a sua expressão específica numa forma comunicável.
Para o pesquisador que usa IA, isso cria uma distinção prática importante. A sua tese, dissertação ou artigo — com toda a sua estrutura de argumentação, escolhas teóricas, análises e conclusões — é uma obra intelectual sua. Ela é protegida pela Lei 9.610/98 porque reflete suas escolhas criativas.
Parágrafos que a IA gerou automaticamente, sem sua intervenção criativa, ficam numa zona de proteção incerta. A lei não os protege diretamente porque não há autoria humana identificável. Mas também não os coloca num domínio público formal — simplesmente não os enquadra em nenhuma categoria clara ainda.
O papel da criatividade humana como critério jurídico
O critério que a jurisprudência internacional tem adotado — e que o Brasil provavelmente seguirá — é o da contribuição criativa humana substancial.
Quando você apenas gera texto com uma IA e o insere no seu trabalho sem revisão ou modificação significativa, a contribuição criativa humana é mínima ou inexistente. A proteção autoral sobre esse trecho é juridicamente frágil.
Quando você usa a IA como ponto de partida — elabora um prompt específico, avalia criticamente o resultado, reescreve partes, integra com outras fontes, reorganiza conforme sua perspectiva teórica — a contribuição criativa humana é substancial. O produto final, moldado pela sua inteligência e julgamento, tem base para reivindicar proteção autoral.
Faz sentido? É a diferença entre usar o Word e deixar o autocomplete terminar seus parágrafos versus usar o Word para escrever um texto com voz própria. A ferramenta é a mesma; o que muda é o nível de agência criativa humana envolvida.
No Método V.O.E., o ato de Validar — questionar, comparar, ajustar — é exatamente o que cria esse grau de contribuição criativa. Não é apenas uma boa prática ética: é o que, juridicamente, ancora sua autoria sobre o produto final.
A tramitação do PL 2338/2023 e o que ele (não) resolve
O Projeto de Lei 2338/2023, chamado de PL de IA no Brasil, é o principal movimento legislativo atual para regular a inteligência artificial no país. Inspirado parcialmente no AI Act europeu, ele trata de questões como responsabilidade por sistemas de IA, proteção de dados em contextos de IA e transparência algorítmica.
O que ele não resolve de forma direta, pelo menos nas versões em tramitação até 2026: os direitos autorais sobre conteúdos gerados por IA. A propriedade intelectual sobre outputs é tratada de forma tangencial, e há lacunas que qualquer advogado especializado reconheceria imediatamente.
Isso não significa que o PL seja inútil para pesquisadores. Ele estabelece princípios importantes sobre responsabilidade e transparência que vão influenciar como as instituições de pesquisa regulamentarão o uso de IA internamente. Mas quem espera que ele resolva a questão autoral está esperando pela versão errada do documento.
O cenário internacional: o que outros marcos estão fazendo
Outros países estão igualmente no meio dessa transição. Vale conhecer alguns pontos de referência.
Nos Estados Unidos, o U.S. Copyright Office publicou guias específicos sobre IA e autoria. A posição é consistente: obras geradas exclusivamente por IA não são elegíveis para copyright. Obras onde humanos fizeram escolhas criativas identificáveis sobre os outputs podem ter proteção parcial.
Na União Europeia, o AI Act (em vigor desde 2024) foca principalmente em riscos e regulação de sistemas de IA, não em direitos autorais. Mas a Diretiva de Direitos Autorais da UE (2019/790) já estava sendo interpretada para incluir questões de IA antes mesmo do AI Act.
Na China, um tribunal de Pequim decidiu em 2023 que imagens geradas por IA podem ter proteção autoral quando há contribuição criativa humana demonstrável no processo — uma decisão que abriu precedente interessante e causou debate internacional.
O padrão que emerge globalmente é o mesmo: contribuição criativa humana como critério central, sem uma posição consolidada sobre o que conta como “suficiente”.
O que a sua instituição precisa de você
Enquanto o marco legal não se consolida, as universidades e programas de pós-graduação estão criando suas próprias normas. E aqui é onde a sua responsabilidade prática se torna muito concreta.
Declaração de uso: A maioria das políticas emergentes exige que você declare quando e como usou IA no processo de produção do trabalho. Isso não é punição — é a forma como a instituição documenta o processo criativo e mantém rastreabilidade da sua contribuição.
Responsabilidade sobre o conteúdo: Independentemente de onde cada frase veio, quem assina o trabalho é responsável por ele. Erros, inverdades e problemas éticos no texto são seus para responder, mesmo que a IA os tenha gerado.
Transparência processual: Algumas bancas e editoras começam a pedir detalhes sobre o uso de IA. Estar preparado para descrever seu processo com clareza é parte do profissionalismo acadêmico atual.
Verificação antes de publicar: Trechos gerados por IA podem conter informações incorretas, referências inexistentes ou argumentações circulares. A responsabilidade por verificar cada afirmação é inteiramente sua.
Um campo em construção — e por que isso é normal
Há algo que vale normalizar: lidar com regras em construção é parte da vida de quem trabalha na fronteira do conhecimento. O direito de patentes demorou décadas para se estabilizar após a Revolução Industrial. A lei de proteção de dados pessoais no Brasil (LGPD) foi aprovada em 2018 e ainda está sendo interpretada e ajustada.
O marco legal da IA vai se construir ao longo dos próximos anos. O que você pode fazer agora é trabalhar com princípios — transparência, responsabilidade intelectual, contribuição criativa autêntica — que vão resistir independentemente de como as regras formais se organizarem.
Isso não é resignação. É a postura de quem entende que a ética não depende de lei para existir.
Fechando: o que muda na sua prática hoje
A ausência de marco legal consolidado não é justificativa para evitar as perguntas difíceis. Pelo contrário: é o momento exato em que você precisa de critérios próprios.
Documente seu processo criativo ao usar IA — não para protegê-lo juridicamente (embora ajude), mas porque um pesquisador responsável sabe explicar como chegou onde chegou.
Declare o uso de IA nos seus trabalhos. Não como confissão de culpa, mas como parte da honestidade metodológica que faz a ciência ser ciência.
E nunca confunda “a lei ainda não proibiu” com “é correto fazer”. São perguntas inteiramente diferentes. A segunda é a que mais importa.