Publicações

Inteligência Artificial na Publicidade: Quem Responde pelo Conteúdo Gerado por IA?

A inteligência artificial deixou de ser uma ferramenta experimental para se tornar protagonista das campanhas publicitárias. Agências e marcas já utilizam sistemas de IA para criar roteiros, imagens, slogans e até influenciadores virtuais. A promessa é sedutora: reduzir custos, acelerar prazos e gerar conteúdo em escala. Mas, à medida que a tecnologia se populariza, uma nova pergunta surge — quem é responsável quando o conteúdo gerado pela IA causa danos, engana o consumidor ou viola direitos autorais?

O desafio é que o Direito ainda não acompanha a velocidade com que a inteligência artificial se insere na publicidade. No Brasil, não há uma lei específica que defina responsabilidades para conteúdos automatizados. Assim, a análise jurídica se baseia em princípios já existentes, como os da responsabilidade civil, do Código de Defesa do Consumidor (CDC) e das normas de publicidade do CONAR. E todos eles têm um ponto em comum: o dever de informação e de veracidade.

Se uma peça publicitária, mesmo criada por IA, induz o consumidor a erro, o responsável é sempre quem se beneficia comercialmente daquela comunicação. Em outras palavras, a marca e a agência respondem solidariamente pelos efeitos da campanha. O fato de o conteúdo ter sido gerado por uma ferramenta autônoma não afasta a responsabilidade humana, pois quem decide usar a tecnologia é quem assume seus riscos.

Imagine, por exemplo, uma campanha que utiliza IA para criar imagens hiper-realistas de pessoas usando um produto. Se essa ferramenta gera uma representação enganosa — como mostrar resultados inexistentes ou sugerir benefícios não comprovados —, o consumidor pode ser levado a erro. Nesse caso, não importa se o erro veio do algoritmo: quem responde é a empresa. É o mesmo raciocínio aplicado ao uso de influenciadores digitais. O CDC e o CONAR entendem que a publicidade deve ser clara, verdadeira e identificável como tal, independentemente do meio ou da tecnologia utilizada.

Outro ponto que merece atenção é a autoria e o direito autoral. Como a IA se alimenta de grandes volumes de dados e obras existentes, muitas vezes sem autorização dos titulares, há o risco de que o conteúdo gerado contenha fragmentos de criações protegidas. Se uma imagem publicitária gerada por IA reproduz elementos reconhecíveis de obras de terceiros, a campanha pode ser considerada infratora. E aqui surge um dilema: o anunciante não é autor direto, mas é o beneficiário comercial — e, portanto, pode ser responsabilizado por violação de direitos autorais.

O caso da Folha de S.Paulo contra a OpenAI, que acusa a empresa de usar reportagens protegidas para treinar modelos de linguagem, é um exemplo emblemático desse embate. A ação pede indenização e destruição dos modelos treinados com base em conteúdo jornalístico sem autorização. Se decisões como essa prosperarem, o impacto será direto no marketing digital: ferramentas amplamente usadas para gerar campanhas poderão ter suas bases de dados questionadas, e os usuários comerciais — as marcas — poderão ser cobrados solidariamente.

Há também o risco ético e reputacional. O uso de IA na publicidade pode gerar mensagens enviesadas, discriminatórias ou ofensivas, reproduzindo preconceitos presentes nos dados de treinamento. Uma campanha automatizada que gere estereótipos de gênero, raça ou corpo pode viralizar negativamente em horas, afetando a reputação de uma marca construída em anos. O dano moral coletivo e a repercussão pública são, nesse contexto, tão graves quanto o passivo jurídico.

Do ponto de vista contratual, as empresas precisam adotar cláusulas específicas sobre o uso de IA. Isso inclui a definição de quem será responsável por revisar o conteúdo antes da publicação, quais ferramentas podem ser utilizadas e quem responderá por eventuais violações de direitos autorais, de imagem ou de dados pessoais. É fundamental que contratos entre marcas, agências e criadores incluam declarações de conformidade, atestando que o conteúdo gerado por IA não infringe direitos de terceiros nem veicula informações enganosas.

Além disso, a LGPD também entra em cena. Modelos de IA podem tratar dados pessoais ao gerar imagens, vozes ou textos. Se o sistema utiliza informações identificáveis de indivíduos, há tratamento de dados e, portanto, necessidade de base legal. Marcas que usam IA para personalizar anúncios ou segmentar públicos devem garantir que o processamento respeite os princípios da finalidade, necessidade e transparência.

Por fim, há um aspecto regulatório que começa a ganhar força no Brasil. O Projeto de Lei nº 2.338/2023, conhecido como o Marco Legal da Inteligência Artificial, em discussão no Congresso, propõe diretrizes de responsabilização. A tendência é que o Brasil adote um modelo de responsabilidade objetiva para danos causados por sistemas de IA, exigindo das empresas mecanismos de governança, registro e transparência. Isso significa que, no futuro próximo, marcas e agências poderão ser legalmente obrigadas a informar quando um conteúdo é gerado por IA e a responder por eventuais danos.

No ambiente publicitário, onde a confiança é moeda de ouro, a transparência será o diferencial competitivo. O consumidor não rejeita a tecnologia — rejeita o engano. A IA pode continuar a ser aliada da criatividade, desde que usada com responsabilidade, revisão humana e respeito às normas éticas e jurídicas.

A criatividade automatizada não elimina o papel do ser humano; apenas o eleva a um novo patamar de responsabilidade. A máquina cria, mas quem decide continua sendo o homem — e é sobre ele que recai a responsabilidade pelos efeitos do que escolhe publicar.

Daniel Callejon Barani
Sócio – Scartezzini Advogados Associados

daniel.barani@scartezzini.com.br

 

Publicado 11/11/25 por Daniel Barani.


Compartilhe:

© - Scartezzini Advogados. Site criado por Agência Javali.