La compañía de inteligencia artificial (IA) ha llegado a un acuerdo con las discográficas que la demandaron a finales de 2023 por entrenar su sistema de IA Claude con las letras de canciones que distribuyen y cuentan con protección por derechos de autor. Aunque el caso se mantiene abierto, Anthropic se ha comprometido a aplicar barreras de seguridad efectivas sobre el contenido protegido y a colaborar con los sellos para resolver cualquier caso que pudiera surgir si estas barreras no surten efecto.
Fue la primera demanda de sellos musicales contra empresa de IA
La jueza del Tribunal de Distrito de los Estados Unidos, Eumi Lee, ha aprobado este acuerdo, que se enmarca en la «primera acción legal emprendida por editores musicales contra una empresa de IA por la incorporación de letras de canciones en un gran modelo lingüístico», informa The Hollywood Reporter (THR).
Alegan infracción de derechos de autor para entrenar al modelo de IA Claude
En octubre de 2023, un numeroso grupo de discográficas, entre las que se encuentran Universal Music Group (UMG), Concord Music Group y ABKCO, pusieron una demanda en Tennessee a Anthropic. La firma de IA respaldada por Amazon, en la que alegaban infracción de derechos de autor al haber utilizado, al menos 500 canciones que cuentan con copyright, para entrenar a su modelo de IA Claude.
Según consta en la denuncia, cuando se pidió a Claude que escribiera letras de piezas musicales como, por citar un ejemplo, Roar de Katy Perry, cuya propiedad es de Concord, el modelo «proporcionó una copia casi idéntica de las palabras de la canción», señala THR. Así, la demanda argumenta que «ya existe un mercado que está siendo socavado por Anthropic, que hurta las letras de las canciones sin consentimiento ni pago», asegura la revista especializada.
Otras plataformas de distribución online pagan las licencias por uso
En el documento legal, las discográficas aseguraban que algunas plataformas que distribuyen canciones en líneas, como Genius, pagan las tarifas de licencia oportunas para usar las obras protegidas. Sin embargo, «Anthropic eliminó o alteró de forma intencionada la información de gestión de derechos de autor» de las canciones al recopilar datos para entrenar su sistema de IA.
El acuerdo firmado pretende prevenir conflictos en este ámbito
Con el acuerdo aprobado recientemente por la jueza Lee, se pretende prevenir desencuentros a futuro entre Anthropic y los sellos discográficos. Así, la propietaria de Claude se ha comprometido a «mantener las barreras de protección para las obras con derechos de autor que ya ha implementado y a aplicarlas en el entrenamiento de nuevos modelos que pueda desarrollar», como señala The Verge. Del mismo modo, la tecnológica y las discográficas «trabajarán juntas de buena fe para resolver casos en el que estas medidas se consideren ineficaces», recoge el medio especializado en tecnología.
«En última instancia, Anthropic proporcionará una respuesta detallada por escrito que identifique cuándo y cómo abordará el problema identificado en el aviso de los editores, o declarará claramente su intención de no abordar el problema», detalla Europa Press.
Anthropic quiere demostrar que ha hecho un uso legítimo de este contenido
En todo caso, Anthropic ha declarado a THR que Claude «no está diseñado para ser utilizado con el fin de infringir los derechos de autor y contamos con numerosos procesos diseñados para evitar estas infracciones. Nuestra decisión de suscribir esta estipulación es coherente con esas prioridades. Seguimos deseando demostrar que, de conformidad con la legislación vigente sobre derechos de autor, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de IA es un uso legítimo por excelencia».
Las discográficas esperan el fallo sobre la medida cautelar preliminar solicitada
A pesar de este avance, las discográficas que interpusieron la demanda han solicitado una medida cautelar preliminar que prohíba a Anthropic entrenar futuros modelos con las letras de sus canciones. Está previsto que en los próximos meses el tribunal emita un fallo al respecto que, según Wwwhatsnew «podría sentar un precedente legal importante para el uso de contenido protegido por IA».
Fuentes: The Hollywood Reporter, The Verge, Europa Press, Wwwhatsnew