Redatora
Publicado em 26 de março de 2025 às 17h32.
Última atualização em 26 de março de 2025 às 17h34.
Um juiz federal da Califórnia deu uma decisão favorável a Anthropic e permitiu que a empresa continuasse a usar músicas da Universal Music Group e outras gravadoras para treinar seu chatbot Claude, reportou a Reuters.
O juiz Eumi Lee disse que o pedido das gravadoras para bloquear a Anthropic de usar as músicas era muito amplo e que elas não conseguiram demonstrar que a conduta da empresa causou “dano irreparável”.Além da Universal, a Concord e ABKO processaram a Anthropic em 2023, dizendo que a empresa havia infringido os direitos autorais de mais de 500 músicas, inclusive da Beyoncé, Rolling Stones e Beach Boys.
Não é a primeira vez que empresas de IA são cobradas a respeito de violações a direitos autorais. Em janeiro de 2023, por exemplo, três artistas e a agência fotográfica Getty processaram o software Stable Diffusion por utilizar seus textos e imagens para treinamento de seus programas.
A Antropic também foi processada por um grupo de escritores que acusou a empresa de cometer “roubo em larga escala” ao usar livros protegidos por direitos autorais para treinar o Claude.
A respeito da tensão entre direitos autorais e IA, a OpenAI afirmou que seria impossível criar ferramentas como o ChatGPT sem acesso ao material protegido pelo direito autoral, em declaração ao comitê seleto de comunicações e digital da Câmara dos Lordes. A declaração ocorreu um mês depois de o New York Times ter processado a OpenAI e a Microsoft por uso indevido de seu trabalho para desenvolver IA.
A empresa argumentou que limitar o treinamento a livros e desenhos fora dos direitos autorais resultaria em sistemas de IA inadequados e que usar o material a para treinar IA não fere os direitos autorais.