Inteligência artificial e os direitos autorais
A validação final para uso responsável da IA pode fazer toda a diferença para garantir mais inovação na comunicação, sem efeitos colaterais indesejados
Inteligência artificial e os direitos autorais
BuscarA validação final para uso responsável da IA pode fazer toda a diferença para garantir mais inovação na comunicação, sem efeitos colaterais indesejados
14 de fevereiro de 2025 - 6h00
A proteção aos direitos autorais é um tema consolidado no Brasil há mais de um século, sendo regulamentada pela Lei nº 9.610/1998, conhecida como Lei de Direitos Autorais. No entanto, a revolução tecnológica impulsionada pela Inteligência Artificial (IA) levantou uma série de questões jurídicas e éticas, especialmente em relação aos direitos autorais e à proteção da personalidade.
Inicialmente, discutiu-se a possibilidade de um sistema de IA ser considerado autor, como no caso de Stephen Thaler e o sistema DABUS. Entretanto, as discussões evoluíram para a questão do treinamento da IA e o uso indiscriminado de conteúdo protegido, sem remuneração ou autorização.
Importante lembrar que a legislação brasileira abrange a proteção das obras em qualquer suporte, inclusive nos ambientes digitais, conforme destacado no artigo 7º, que afirma: “São obras intelectuais protegidas as criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro”.
Além disso, a lei vigente define “autor” como a pessoa física criadora de obra literária, artística ou científica, conforme previsto no artigo 11. O que faz com que a interação humana na criação com uso de IA se torne essencial para aplicação das devidas proteções.
Mas como a IA precisa de um grande volume de dados em seu aprendizado, surge, então, o debate sobre a aplicabilidade do “fair use” (uso justo) de obras protegidas no treinamento de redes neurais de IA generativa. Este debate resultou em uma série de processos judiciais nos Estados Unidos. Em 2020, a Thomson Reuters processou a Ross Intelligence por uso ilegal de “headnotes” de sua plataforma Westlaw.
Por sua vez, em 2023, o The New York Times processou a OpenAI e a Microsoft, alegando uso não autorizado de seu conteúdo para treinar sistemas de IA. No ano seguinte, a Sony Music, a Universal Music Group e a Warner Records processaram as empresas de IA Suno e Udio por violação de direitos autorais ao usarem gravações para treinar sistemas de geração de música.
Mais recentemente, surgiu a polêmica da clonagem de vozes de celebridades, destacada por um vídeo viral no qual Anitta “fala com ela mesma” no Character.AI. A cantora afirmou que aceitaria essa “humilhação” se fosse remunerada, lamentando que “nem isso está acontecendo”. Sendo que, a falta de legitimidade ou de autorização contraria as regras da própria solução, conforme seus Termos.
Esta problemática já estava no radar das autoridades devido ao caso de Scarlett Johansson, surpreendida com o uso de uma IA que reproduzia sua voz em um chatbot da OpenAI. A semelhança com sua voz real gerou alvoroço nas redes sociais e levantou preocupações sobre clonagem digital e uso não autorizado da imagem e voz de pessoas públicas. A polêmica resultou na retirada do ar do chatbot, mas a discussão sobre os limites legais da IA estava apenas no começo.
Diante de todo esse cenário, desde o ano passado é possível verificar tendência crescente de adaptação das leis de direitos autorais à era digital, reconhecendo que a replicação de vozes e imagens por IA pode violar direitos de personalidade e de propriedade intelectual. Em janeiro de 2024, na Espanha, dubladores de todo o país concordaram em parar de trabalhar para os distribuidores que não oferecessem as proteções adequadas nas cessões de direitos assinadas, sendo os primeiros na Europa a redigir uma cláusula de IA, embora as negociações ainda estejam em andamento.
Em março, o Tennessee, sancionou a Lei de Garantia de Segurança de Voz e Imagem (“ELVIS Act”), proibindo o uso de IA com o objetivo de se imitar a voz de uma pessoa sem sua permissão. Sua violação pode ocasionar em ação civil e/ou aplicação criminal, sendo essa considerada contravenção de Classe A, que acarreta pena máxima de 11 meses e 29 dias de prisão e multa de US$ 2.500.
Já o Reino Unido está em vias de realizar reforma nas leis de direitos autorais, sobre o assunto até Paul McCartney se pronunciou, afirmando em entrevista para a BBC que mudanças propostas na legislação de direitos autorais podem permitir tecnologias que “roubam os artistas e músicos” sejam implementadas, impossibilitando todos de ganhar a vida fazendo música.
No cenário nacional, o Projeto de Lei 2338/2024, que dispõe sobre o uso da inteligência artificial no país, atualmente em análise na Câmara dos Deputados, prevê que o uso de imagem e voz por sistemas de IA deve respeitar os direitos da personalidade, conforme a Constituição Federal, o Código Civil, o ECA e a LGPD.
O Projeto também autoriza o uso de conteúdos protegidos por direitos autorais em “mineração de textos” para desenvolvimento de IA por instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e organizações educacionais, desde que o material seja obtido de forma legítima e sem fins comerciais. Tal utilização deve ser limitada ao necessário para o objetivo, sem prejudicar os interesses econômicos dos titulares dos direitos. O uso comercial de conteúdos em IA dará direito a remuneração aos detentores dos direitos autorais.
Além do aspecto legal, esta questão está profundamente conectada à segurança digital e à proteção contra fraudes. No ano passado, o Starling Bank, do Reino Unido emitiu um alerta informando que fraudadores podem replicar a voz de uma pessoa com apenas três segundos de áudio encontrado online e usá-la para enganar amigos e familiares, pedindo dinheiro por telefone. Nesse sentido, o banco sugeriu que as pessoas criassem uma “frase segura” com seus entes queridos para verificação de identidade.
No que diz respeito a produção de conteúdo, algumas medidas contribuem para mitigar riscos legais e reputacionais no uso da IA, entre elas está a de trazer mais transparência para todo o processo e gerar documentação, para evidenciar melhor como foi utilizada e para quais finalidades.
Ou seja, foco na transparência é indispensável, o que exige adaptações do método de trabalho com IA, em especial em equipes de criação, para que o resultado final traga, por exemplo, marcas d’água ou disclaimers permanentes (avisos legais), e que o consentimento do titular seja expresso e específico.
A utilização não autorizada da imagem ou voz de celebridades ou de indivíduos pode colocar em risco toda uma campanha de comunicação, impactar a Marca e acarretar ações judiciais. Por isso, a validação final para uso responsável da IA pode fazer toda a diferença para garantir mais inovação na comunicação, sem efeitos colaterais indesejados.
Compartilhe
Veja também
O que a DoubleVerify espera para CTV em 2025?
Executivos apontam tendências de IA, retail media e mídias sociais como pontos importantes
IBM e expectativas para 2025: sustentabilidade, segurança e automação
Com IA como carro-chefe, executivos da empresa de tecnologia falam sobre as tendencias tecnológicas para o ano que vem