Publicações

IA Generativa e Direito Autoral: Quem é o Dono do Conteúdo Criado por Máquinas?

A inteligência artificial deixou de ser uma promessa futurista para se tornar ferramenta cotidiana em agências, escritórios e até no celular de qualquer pessoa. Hoje, com alguns comandos, é possível gerar imagens fotográficas, textos jornalísticos, músicas inéditas e até roteiros para vídeos. Essa democratização da produção criativa trouxe ganhos inegáveis em agilidade e redução de custos, mas também uma das maiores controvérsias jurídicas dos últimos anos: quem é o dono do conteúdo criado por máquinas?

A dúvida não é apenas teórica. Um anúncio feito com imagem gerada por IA pode ser protegido por direito autoral? Uma música criada por algoritmos pode ser registrada? E quando a inteligência artificial se inspira em milhões de obras pré-existentes, há violação de copyright? Questões como essas desafiam a legislação tradicional e forçam juristas, empresas e criadores a repensarem conceitos básicos de autoria.

No Brasil, a Lei de Direitos Autorais (Lei 9.610/98) protege obras intelectuais criadas pelo espírito humano. A expressão “autor” é central no texto legal, deixando claro que somente a criação humana é passível de proteção autoral. Isso significa que, em princípio, conteúdos gerados de forma totalmente autônoma por IA não possuem titular de direito autoral. Essa lacuna abre espaço para debates intensos: se não há autor, pode haver titularidade? Pode a empresa dona da ferramenta reivindicar o conteúdo? Ou caberia ao usuário que inseriu o prompt?

O INPI (Instituto Nacional da Propriedade Industrial), responsável pelos registros no Brasil, ainda não emitiu diretrizes específicas para IA generativa. Mas decisões internacionais já oferecem pistas. Nos Estados Unidos, o Copyright Office rejeitou o registro de imagens criadas integralmente por inteligência artificial, afirmando que a proteção só se aplica a obras com intervenção criativa humana. Na Europa, discute-se a possibilidade de reconhecer a autoria compartilhada, quando há participação significativa do usuário no direcionamento da máquina.


Exemplo real: Folha de S.Paulo processa OpenAI por uso indevido de conteúdo jornalístico

Para ilustrar como a questão da autoria e uso de obras protegidas já não é mera especulação acadêmica, vale citar a disputa que se desenha atualmente entre a Folha de S.Paulo e a OpenAI. O jornal paulista ajuizou ação judicial acusando a empresa de utilizar reportagens e conteúdos exclusivos do veículo — inclusive protegidos por paywall — para treinar seus modelos de IA, sem autorização ou remuneração.

Segundo a ação, “bots GPT” acessaram mais de 45 mil vezes o site da Folha em um único mês, coletando material jornalístico para alimentar algoritmos de linguagem. O jornal pede, além de indenização por danos, a interrupção imediata desse uso, a destruição dos modelos de IA treinados com base em seu acervo e a apresentação de documentos técnicos que mostrem como os textos foram processados.

Esse processo é emblemático por vários motivos. Primeiro, porque envolve um dos maiores jornais do país, cujo acervo é protegido por lei. Segundo, porque coloca em debate a prática das grandes plataformas de IA de usar conteúdo público ou semi-público sem pactuação prévia. E terceiro, porque um eventual precedente pode impactar toda a indústria de inteligência artificial, influenciando a forma como modelos são treinados no Brasil e no exterior.


A questão complica ainda mais quando se considera o treinamento dos modelos de IA em geral. Para aprender a criar, os algoritmos consomem grandes bases de dados, compostas por textos, imagens, músicas e vídeos já existentes. Muitos desses materiais estão protegidos por direito autoral. Isso levanta outro dilema: o uso dessas obras no treinamento seria uma forma de cópia indevida ou estaria amparado por exceções legais, como o uso justo ou citações? Ainda não há consenso, mas ações judiciais como a da Folha mostram que a disputa tende a se intensificar.

Do ponto de vista prático, empresas e criadores que utilizam IA generativa em campanhas precisam redobrar os cuidados. Se uma imagem criada por máquina reproduzir elementos reconhecíveis de uma obra pré-existente, pode haver acusação de plágio. Se um texto gerado incluir trechos idênticos a livros ou artigos, pode haver violação direta. O risco não é apenas jurídico: envolve também danos reputacionais e perda de confiança em marcas que se apresentam como inovadoras, mas acabam acusadas de exploração indevida.

Por outro lado, ignorar o potencial criativo da IA seria impraticável. A tendência é que agências de publicidade, influenciadores e produtores de conteúdo incorporem cada vez mais essas ferramentas. A solução, ao que tudo indica, passará por uma combinação de legislação atualizada, autorregulação de mercado e boas práticas contratuais. Já se fala em modelos híbridos, nos quais a autoria seria reconhecida ao humano que direciona o algoritmo, desde que sua contribuição seja criativa e substancial.

Em contratos, recomenda-se prever cláusulas que tratem expressamente do uso de IA. É importante definir quem será considerado responsável pela obra gerada, quem poderá explorá-la comercialmente e quem responderá em caso de disputa. Também vale incluir garantias de que o conteúdo não infringe direitos de terceiros, ainda que essa verificação seja complexa no ambiente digital.

No campo da ética, cresce a pressão por transparência. Diversos países estudam obrigar a identificação de conteúdos gerados por IA, para que o consumidor saiba quando está diante de uma criação humana e quando a mensagem vem de uma máquina. Essa distinção é relevante não apenas para o direito autoral, mas também para o combate à desinformação e à manipulação digital.

Em resumo, o dilema da autoria na era da IA generativa mostra que o direito autoral, concebido para proteger pintores, escritores e músicos, precisa ser reinterpretado à luz de uma tecnologia que desafia noções de originalidade. Enquanto a lei não avança, caberá a empresas, agências e influenciadores adotar uma postura preventiva: contratos claros, uso responsável de ferramentas e acompanhamento de decisões internacionais. Porque, no fim das contas, o que está em jogo não é apenas a proteção da obra, mas a segurança jurídica de todo um ecossistema criativo que já convive com a inteligência artificial como parceira cotidiana.

Daniel Callejon Barani
Sócio – Scartezzini Advogados Associados

daniel.barani@scartezzini.com.br

Publicado 14/10/25 por Daniel Barani.


Compartilhe:

© - Scartezzini Advogados. Site criado por Agência Javali.