HomeNews* Un tribunal federal de EE. UU. dictaminó que el uso de libros protegidos por derechos de autor por parte de Anthropic para el entrenamiento de IA se considera uso justo.
El tribunal encontró que la empresa violó la ley de derechos de autor al mantener una biblioteca permanente de libros pirateados.
La decisión marca el primer análisis importante del uso justo para el entrenamiento de IA en un tribunal de EE. UU.
Los autores alegan que Anthropic construyó un negocio de miles de millones de dólares utilizando libros robados para entrenar su IA, Claude.
Desafíos legales similares continúan contra OpenAI, Meta y otros por usar contenido protegido por derechos de autor sin permiso.
Un juez de distrito de EE. UU. dictaminó que el uso de libros con copyright por parte de Anthropic para entrenar sus modelos de IA, incluido Claude, califica como uso justo bajo la ley de derechos de autor estadounidense. La decisión, emitida el lunes por la noche, es en respuesta a una demanda presentada por varios autores que afirman que sus obras fueron utilizadas sin permiso.
Anuncio - El juez William Alsup declaró que los modelos de IA de Anthropic no simplemente copian o reemplazan los libros originales, sino que producen contenido nuevo y diferente. "Como cualquier lector que aspira a ser escritor, los LLMs de Anthropic se entrenaron con obras no para adelantarse y replicarlas o suplantarlas, sino para girar en una esquina difícil y crear algo diferente", escribió Alsup. Sin embargo, también encontró fallas en la creación por parte de la empresa de una gran biblioteca permanente que contiene millones de libros pirateados, calificándolo como una violación directa de la ley de derechos de autor.
Los documentos judiciales muestran que Anthropic descargó al menos siete millones de libros piratas de fuentes como Library Genesis y Pirate Library Mirror. Las comunicaciones internas citadas en el caso afirmaron que la empresa tenía la intención de evitar licencias que consumen tiempo y construir una biblioteca digital para mantener “todos los libros del mundo” indefinidamente. Alsup enfatizó: “No hay excepción, sin embargo, de la Ley de Derechos de Autor para las empresas de IA”, concluyendo que mantener una colección permanente de obras piratas podría dañar el mercado editorial.
La demanda fue interpuesta por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes afirman que Anthropic construyó su negocio utilizando sus libros sin consentimiento. El caso busca daños y una orden permanente contra el uso de materiales pirateados.
El juez distinguió entre las copias utilizadas directamente para el entrenamiento de IA, que el tribunal consideró un uso justo, y el almacenamiento de libros piratas, que enfrentará una revisión legal adicional. Este fallo es el primero en los Estados Unidos en examinar formalmente cómo se aplica el uso justo al entrenamiento de IA con textos protegidos por derechos de autor.
Otras empresas, como OpenAI y Meta, también están enfrentando demandas por prácticas similares que involucran el entrenamiento de sus modelos de IA en obras protegidas por derechos de autor sin aprobación. El caso de OpenAI y una demanda presentada por The New York Times contra OpenAI y Microsoft aún están en curso.
Además, Reddit ha acusado a Anthropic de raspar su plataforma más de 100,000 veces para entrenar sus modelos, a pesar de las afirmaciones de que el raspado había cesado. La litigación contra las empresas de IA por el uso de contenido protegido por derechos de autor continúa desarrollándose en los tribunales de EE. UU.
Publicidad - #### Artículos Anteriores:
Malware de npm norcoreano apunta a desarrolladores en entrevistas de trabajo falsas
Argent Wallet se rebautiza como Ready con una estrategia de producto dual
YESminer Lanza Plataforma Crypto Impulsada por IA con Bonos Gratis
El Banco de Corea quiere que los bancos lideren la emisión de stablecoins, con un enfoque en la seguridad
Bernie Sanders advierte que la IA y los robots amenazan los empleos; insta a nuevas protecciones
Anuncio -
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
El juez decide que el entrenamiento del libro de IA de Anthropic es un uso justo, la biblioteca es ilegal
HomeNews* Un tribunal federal de EE. UU. dictaminó que el uso de libros protegidos por derechos de autor por parte de Anthropic para el entrenamiento de IA se considera uso justo.
Los documentos judiciales muestran que Anthropic descargó al menos siete millones de libros piratas de fuentes como Library Genesis y Pirate Library Mirror. Las comunicaciones internas citadas en el caso afirmaron que la empresa tenía la intención de evitar licencias que consumen tiempo y construir una biblioteca digital para mantener “todos los libros del mundo” indefinidamente. Alsup enfatizó: “No hay excepción, sin embargo, de la Ley de Derechos de Autor para las empresas de IA”, concluyendo que mantener una colección permanente de obras piratas podría dañar el mercado editorial.
La demanda fue interpuesta por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes afirman que Anthropic construyó su negocio utilizando sus libros sin consentimiento. El caso busca daños y una orden permanente contra el uso de materiales pirateados.
El juez distinguió entre las copias utilizadas directamente para el entrenamiento de IA, que el tribunal consideró un uso justo, y el almacenamiento de libros piratas, que enfrentará una revisión legal adicional. Este fallo es el primero en los Estados Unidos en examinar formalmente cómo se aplica el uso justo al entrenamiento de IA con textos protegidos por derechos de autor.
Otras empresas, como OpenAI y Meta, también están enfrentando demandas por prácticas similares que involucran el entrenamiento de sus modelos de IA en obras protegidas por derechos de autor sin aprobación. El caso de OpenAI y una demanda presentada por The New York Times contra OpenAI y Microsoft aún están en curso.
Además, Reddit ha acusado a Anthropic de raspar su plataforma más de 100,000 veces para entrenar sus modelos, a pesar de las afirmaciones de que el raspado había cesado. La litigación contra las empresas de IA por el uso de contenido protegido por derechos de autor continúa desarrollándose en los tribunales de EE. UU.