Anthropic enfrenta una nueva demanda por derechos de autor en EE. UU. por parte de importantes editoriales musicales que alegan que la compañía utilizó miles de canciones protegidas sin permiso para entrenar su IA Claude, buscando potencialmente más de 3 mil millones de dólares en daños.
La empresa de investigación en IA Anthropic enfrenta una nueva demanda por derechos de autor presentada el miércoles en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California por un grupo de importantes editoriales musicales, incluyendo Universal Music Group, Concord y ABKCO. La denuncia alega que la compañía utilizó indebidamente obras musicales protegidas para entrenar su chatbot Claude sin autorización.
Según las editoriales, Anthropic reprodujo e incorporó ilegalmente más de 700 composiciones individuales, incluyendo letras de canciones y partituras de títulos como “Wild Horses” de The Rolling Stones, “Sweet Caroline” de Neil Diamond y “Bennie and the Jets” de Elton John. La denuncia además afirma que el uso de material protegido por parte de la compañía va más allá de esos ejemplos y afecta a miles de obras adicionales propiedad o administradas por los demandantes.
En una declaración pública acompañando la denuncia, las editoriales dijeron que están buscando reclamaciones por infracción que cubren más de 20,000 canciones en total y buscan daños estatutarios que podrían superar los 3 mil millones de dólares. Describieron la acción como posiblemente uno de los mayores casos de derechos de autor sin acción colectiva jamás presentados en Estados Unidos.
La demanda indica que las colecciones de libros supuestamente pirateados utilizados en el proceso de entrenamiento contenían partituras y letras protegidas por derechos de autor asociadas con al menos 714 canciones controladas por las editoriales. Los demandantes argumentan que la reproducción y uso de estos materiales violaron sus derechos exclusivos bajo la ley de derechos de autor de EE. UU.
El caso ha sido presentado bajo el título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California. La representación legal de las editoriales incluye abogados de Oppenheim + Zebrak, Coblentz Patch Duffy & Bass y Cowan, Liebowitz & Latman.
Las editoriales musicales intensifican el caso de derechos de autor contra Anthropic mientras las prácticas de entrenamiento de IA enfrentan escrutinio legal en EE. UU.
Esta demanda presentada recientemente sigue y amplía un caso separado iniciado por el mismo grupo de editoriales musicales contra Anthropic en 2023, que también se centró en alegaciones de que la compañía utilizó su material protegido por derechos de autor para entrenar su modelo de lenguaje grande Claude para generar respuestas a las solicitudes de los usuarios. Anthropic ha rechazado públicamente las reclamaciones hechas en ambas acciones y mantiene que sus prácticas de entrenamiento cumplen con la ley aplicable.
La disputa surge en un contexto de un importante desarrollo legal que involucró a Anthropic el año pasado, cuando la compañía alcanzó un acuerdo de 1.500 millones de dólares en un caso separado de derechos de autor presentado por un grupo de autores de libros. En ese asunto, el juez federal William Alsup concluyó que la doctrina de uso justo protegía a Anthropic de la responsabilidad por infracción derivada específicamente del uso de libros protegidos por derechos de autor para el entrenamiento de inteligencia artificial. Al mismo tiempo, el tribunal indicó que la compañía podría enfrentar una exposición separada por la supuesta copia no autorizada de los libros subyacentes, señalando que tal conducta podría, en teoría, dar lugar a daños que alcanzaran hasta 1 billón de dólares.
El creciente volumen de litigios refleja una confrontación legal y regulatoria más amplia entre creadores y desarrolladores de inteligencia artificial. En todo el sector tecnológico, las principales empresas de IA están siendo cada vez más objetivo de los titulares de derechos, incluidos escritores, editoriales musicales y artistas visuales, que afirman que sus obras fueron utilizadas sin permiso para entrenar modelos generativos. En respuesta, muchas empresas tecnológicas han argumentado consistentemente que la ingestión de material protegido por derechos de autor con fines de entrenamiento se encuentra dentro del alcance del uso justo bajo la ley de derechos de autor de EE. UU., preparando el escenario para una serie de decisiones judiciales emblemáticas que se espera que configuren el futuro del desarrollo de IA y los derechos de propiedad intelectual.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic enfrenta una demanda por $3B derechos de autor de los principales editores de música por prácticas de entrenamiento de IA
En Resumen
Anthropic enfrenta una nueva demanda por derechos de autor en EE. UU. por parte de importantes editoriales musicales que alegan que la compañía utilizó miles de canciones protegidas sin permiso para entrenar su IA Claude, buscando potencialmente más de 3 mil millones de dólares en daños.
La empresa de investigación en IA Anthropic enfrenta una nueva demanda por derechos de autor presentada el miércoles en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California por un grupo de importantes editoriales musicales, incluyendo Universal Music Group, Concord y ABKCO. La denuncia alega que la compañía utilizó indebidamente obras musicales protegidas para entrenar su chatbot Claude sin autorización.
Según las editoriales, Anthropic reprodujo e incorporó ilegalmente más de 700 composiciones individuales, incluyendo letras de canciones y partituras de títulos como “Wild Horses” de The Rolling Stones, “Sweet Caroline” de Neil Diamond y “Bennie and the Jets” de Elton John. La denuncia además afirma que el uso de material protegido por parte de la compañía va más allá de esos ejemplos y afecta a miles de obras adicionales propiedad o administradas por los demandantes.
En una declaración pública acompañando la denuncia, las editoriales dijeron que están buscando reclamaciones por infracción que cubren más de 20,000 canciones en total y buscan daños estatutarios que podrían superar los 3 mil millones de dólares. Describieron la acción como posiblemente uno de los mayores casos de derechos de autor sin acción colectiva jamás presentados en Estados Unidos.
La demanda indica que las colecciones de libros supuestamente pirateados utilizados en el proceso de entrenamiento contenían partituras y letras protegidas por derechos de autor asociadas con al menos 714 canciones controladas por las editoriales. Los demandantes argumentan que la reproducción y uso de estos materiales violaron sus derechos exclusivos bajo la ley de derechos de autor de EE. UU.
El caso ha sido presentado bajo el título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California. La representación legal de las editoriales incluye abogados de Oppenheim + Zebrak, Coblentz Patch Duffy & Bass y Cowan, Liebowitz & Latman.
Las editoriales musicales intensifican el caso de derechos de autor contra Anthropic mientras las prácticas de entrenamiento de IA enfrentan escrutinio legal en EE. UU.
Esta demanda presentada recientemente sigue y amplía un caso separado iniciado por el mismo grupo de editoriales musicales contra Anthropic en 2023, que también se centró en alegaciones de que la compañía utilizó su material protegido por derechos de autor para entrenar su modelo de lenguaje grande Claude para generar respuestas a las solicitudes de los usuarios. Anthropic ha rechazado públicamente las reclamaciones hechas en ambas acciones y mantiene que sus prácticas de entrenamiento cumplen con la ley aplicable.
La disputa surge en un contexto de un importante desarrollo legal que involucró a Anthropic el año pasado, cuando la compañía alcanzó un acuerdo de 1.500 millones de dólares en un caso separado de derechos de autor presentado por un grupo de autores de libros. En ese asunto, el juez federal William Alsup concluyó que la doctrina de uso justo protegía a Anthropic de la responsabilidad por infracción derivada específicamente del uso de libros protegidos por derechos de autor para el entrenamiento de inteligencia artificial. Al mismo tiempo, el tribunal indicó que la compañía podría enfrentar una exposición separada por la supuesta copia no autorizada de los libros subyacentes, señalando que tal conducta podría, en teoría, dar lugar a daños que alcanzaran hasta 1 billón de dólares.
El creciente volumen de litigios refleja una confrontación legal y regulatoria más amplia entre creadores y desarrolladores de inteligencia artificial. En todo el sector tecnológico, las principales empresas de IA están siendo cada vez más objetivo de los titulares de derechos, incluidos escritores, editoriales musicales y artistas visuales, que afirman que sus obras fueron utilizadas sin permiso para entrenar modelos generativos. En respuesta, muchas empresas tecnológicas han argumentado consistentemente que la ingestión de material protegido por derechos de autor con fines de entrenamiento se encuentra dentro del alcance del uso justo bajo la ley de derechos de autor de EE. UU., preparando el escenario para una serie de decisiones judiciales emblemáticas que se espera que configuren el futuro del desarrollo de IA y los derechos de propiedad intelectual.