A Anthropic enfrenta uma nova ação de copyright nos EUA, movida por grandes editoras de música, alegando que a empresa utilizou milhares de músicas protegidas sem permissão para treinar a sua IA Claude, potencialmente buscando mais de 3 bilhões de dólares em indemnizações.
A empresa de pesquisa em IA Anthropic enfrenta uma nova ação de copyright apresentada na quarta-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia por um grupo de grandes editoras de música, incluindo Universal Music Group, Concord e ABKCO. A queixa alega que a empresa utilizou indevidamente obras musicais protegidas para treinar o seu chatbot Claude sem autorização.
De acordo com as editoras, a Anthropic reproduziu e incorporou ilegalmente mais de 700 composições individuais, incluindo letras de músicas e partituras de títulos como “Wild Horses” dos Rolling Stones, “Sweet Caroline” de Neil Diamond e “Bennie and the Jets” de Elton John. O processo ainda afirma que o uso de material protegido pela empresa vai além desses exemplos e afeta milhares de obras adicionais de propriedade ou administração dos autores.
Numa declaração pública acompanhando o processo, as editoras disseram que estão a perseguir reivindicações de infração que cobrem mais de 20.000 músicas no total e procuram indemnizações estatutárias que podem ultrapassar os 3 bilhões de dólares. Descreveram a ação como potencialmente um dos maiores casos de copyright sem ação coletiva já movidos nos Estados Unidos.
A ação afirma que coleções de livros supostamente pirateados utilizados no processo de treino continham partituras e letras protegidas por direitos de autor associadas a pelo menos 714 músicas controladas pelas editoras. Os autores argumentam que a reprodução e uso desses materiais violaram os seus direitos exclusivos ao abrigo da lei de copyright dos EUA.
O caso foi apresentado sob o título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. A representação legal das editoras inclui advogados da Oppenheim + Zebrak, Coblentz Patch Duffy & Bass, e Cowan, Liebowitz & Latman.
Editoras de Música Escalam Caso de Copyright Contra Anthropic Enquanto Práticas de Treino de IA Enfrentam Fiscalização Legal nos EUA
Esta ação recentemente apresentada sucede e expande um caso separado iniciado pelo mesmo grupo de editoras de música contra a Anthropic em 2023, que também se centrava nas alegações de que a empresa usou o seu material protegido por direitos de autor para treinar o seu grande modelo de linguagem Claude para gerar respostas a prompts de utilizadores. A Anthropic rejeitou publicamente as alegações feitas em ambas as ações e mantém que as suas práticas de treino cumprem a lei aplicável.
A disputa surge num contexto de um importante desenvolvimento legal envolvendo a Anthropic no ano passado, quando a empresa chegou a um acordo de 1,5 mil milhões de dólares numa ação de copyright separada movida por um grupo de autores de livros. Nesse caso, o Juiz Distrital dos EUA William Alsup concluiu que a doutrina do uso justo protegia a Anthropic de responsabilidade por infração, especificamente, pelo uso de livros protegidos por direitos de autor para treino de inteligência artificial. Ao mesmo tempo, o tribunal indicou que a empresa poderia ainda assim enfrentar uma exposição separada por cópia não autorizada dos próprios livros subjacentes, observando que tal conduta poderia, em teoria, gerar indemnizações que atingissem até 1 trilhão de dólares.
O crescente volume de litígios reflete um confronto jurídico e regulatório mais amplo entre criadores e desenvolvedores de inteligência artificial. No setor tecnológico, as principais empresas de IA estão cada vez mais a ser alvo de titulares de direitos de autor, incluindo escritores, editoras de música e artistas visuais, que alegam que as suas obras foram usadas sem permissão para treinar modelos generativos. Em resposta, muitas empresas de tecnologia têm argumentado consistentemente que a ingestão de material protegido por direitos de autor para fins de treino enquadra-se no uso justo ao abrigo da lei de copyright dos EUA, preparando o terreno para uma série de decisões judiciais históricas que se espera venham a moldar o futuro do desenvolvimento de IA e dos direitos de propriedade intelectual.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Anthropic Enfrenta $3B Ação Judicial por Direitos de Autor de Grandes Editoras de Música por Práticas de Treinamento de IA
Resumido
A Anthropic enfrenta uma nova ação de copyright nos EUA, movida por grandes editoras de música, alegando que a empresa utilizou milhares de músicas protegidas sem permissão para treinar a sua IA Claude, potencialmente buscando mais de 3 bilhões de dólares em indemnizações.
A empresa de pesquisa em IA Anthropic enfrenta uma nova ação de copyright apresentada na quarta-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia por um grupo de grandes editoras de música, incluindo Universal Music Group, Concord e ABKCO. A queixa alega que a empresa utilizou indevidamente obras musicais protegidas para treinar o seu chatbot Claude sem autorização.
De acordo com as editoras, a Anthropic reproduziu e incorporou ilegalmente mais de 700 composições individuais, incluindo letras de músicas e partituras de títulos como “Wild Horses” dos Rolling Stones, “Sweet Caroline” de Neil Diamond e “Bennie and the Jets” de Elton John. O processo ainda afirma que o uso de material protegido pela empresa vai além desses exemplos e afeta milhares de obras adicionais de propriedade ou administração dos autores.
Numa declaração pública acompanhando o processo, as editoras disseram que estão a perseguir reivindicações de infração que cobrem mais de 20.000 músicas no total e procuram indemnizações estatutárias que podem ultrapassar os 3 bilhões de dólares. Descreveram a ação como potencialmente um dos maiores casos de copyright sem ação coletiva já movidos nos Estados Unidos.
A ação afirma que coleções de livros supostamente pirateados utilizados no processo de treino continham partituras e letras protegidas por direitos de autor associadas a pelo menos 714 músicas controladas pelas editoras. Os autores argumentam que a reprodução e uso desses materiais violaram os seus direitos exclusivos ao abrigo da lei de copyright dos EUA.
O caso foi apresentado sob o título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. A representação legal das editoras inclui advogados da Oppenheim + Zebrak, Coblentz Patch Duffy & Bass, e Cowan, Liebowitz & Latman.
Editoras de Música Escalam Caso de Copyright Contra Anthropic Enquanto Práticas de Treino de IA Enfrentam Fiscalização Legal nos EUA
Esta ação recentemente apresentada sucede e expande um caso separado iniciado pelo mesmo grupo de editoras de música contra a Anthropic em 2023, que também se centrava nas alegações de que a empresa usou o seu material protegido por direitos de autor para treinar o seu grande modelo de linguagem Claude para gerar respostas a prompts de utilizadores. A Anthropic rejeitou publicamente as alegações feitas em ambas as ações e mantém que as suas práticas de treino cumprem a lei aplicável.
A disputa surge num contexto de um importante desenvolvimento legal envolvendo a Anthropic no ano passado, quando a empresa chegou a um acordo de 1,5 mil milhões de dólares numa ação de copyright separada movida por um grupo de autores de livros. Nesse caso, o Juiz Distrital dos EUA William Alsup concluiu que a doutrina do uso justo protegia a Anthropic de responsabilidade por infração, especificamente, pelo uso de livros protegidos por direitos de autor para treino de inteligência artificial. Ao mesmo tempo, o tribunal indicou que a empresa poderia ainda assim enfrentar uma exposição separada por cópia não autorizada dos próprios livros subjacentes, observando que tal conduta poderia, em teoria, gerar indemnizações que atingissem até 1 trilhão de dólares.
O crescente volume de litígios reflete um confronto jurídico e regulatório mais amplo entre criadores e desenvolvedores de inteligência artificial. No setor tecnológico, as principais empresas de IA estão cada vez mais a ser alvo de titulares de direitos de autor, incluindo escritores, editoras de música e artistas visuais, que alegam que as suas obras foram usadas sem permissão para treinar modelos generativos. Em resposta, muitas empresas de tecnologia têm argumentado consistentemente que a ingestão de material protegido por direitos de autor para fins de treino enquadra-se no uso justo ao abrigo da lei de copyright dos EUA, preparando o terreno para uma série de decisões judiciais históricas que se espera venham a moldar o futuro do desenvolvimento de IA e dos direitos de propriedade intelectual.