Con el rápido avance de la inteligencia artificial generativa, han surgido numerosas batallas legales, especialmente en lo que respecta a la línea difusa entre contenido original y material generado por IA. Modelos como ChatGPT y Claude están siendo cada vez más sofisticados, y para ello, requieren grandes volúmenes de datos, muchos de los cuales provienen de fuentes públicas. Esto ha generado serias preocupaciones sobre la posible violación de derechos de autor, especialmente cuando estos modelos se entrenan con obras protegidas. Un reciente fallo en un juicio contra la empresa Anthropic, desarrolladora del modelo Claude, ha puesto de relieve estas tensiones.
Aunque el fallo favorece a Anthropic, contiene importantes matices.
El 24 de junio de 2025, el juez federal de EE. UU. William Alsup emitió una decisión clave a favor de Anthropic, afirmando que el uso de libros adquiridos legalmente y digitalizados para entrenar modelos de IA como Claude entra dentro de la doctrina de “uso justo” según la ley de derechos de autor de EE. UU. Este fallo subraya una diferencia crucial: entrenar un modelo de IA con textos protegidos por derechos de autor no se considera una copia o redistribución de esos textos, sino que es visto como una transformación de esos textos en conocimiento para la IA, lo que según el tribunal cumple con los criterios de uso justo.
Sin embargo, el tribunal no exoneró por completo a la empresa. El juez Alsup destacó que Anthropic era responsable por usar libros piratas provenientes de sitios como Book3 y LibGen. El juez dejó claro que, aunque la intención de usar contenido pirata fuera transformadora, la piratería no puede ser justificada como parte de la defensa del uso justo. Esta decisión abre la puerta a un juicio adicional para determinar los daños que Anthropic podría tener que pagar por el uso de contenido ilegal.
En su fallo, el juez Alsup señaló que sería difícil para cualquier parte acusada probar que descargar materiales piratas de sitios donde esos libros podrían haberse adquirido legalmente era “razonablemente necesario” para entrenar la IA. Esta declaración podría sentar un importante precedente para futuros casos relacionados con IA y resalta la necesidad de cumplir con las leyes de derechos de autor, incluso cuando se trabaja con tecnologías transformadoras como la IA.
Este fallo deja abierta una pregunta legal fundamental: ¿cómo equilibrarán los tribunales las necesidades de los desarrolladores de IA con la protección de los derechos de propiedad intelectual? Este caso marca un punto de inflexión para el futuro de la IA, ya que demuestra que el entrenamiento con material legal es permisible, pero el uso de datos piratas será castigado. A medida que las tecnologías de IA continúan avanzando, esta decisión probablemente tendrá un gran impacto sobre cómo se recopilan y utilizan los datos para el aprendizaje automático.
1 comentario
Esto va a ser un lío. Todos tratando de entrenar sus IA, pero con todos estos problemas legales… 😬