1.500 millones de dólares por entrenar con libros piratas: el caso Anthropic y lo que nos enseña sobre la IA y los derechos de autor
¿Puede una empresa de inteligencia artificial entrenar sus modelos con libros protegidos por derechos de autor sin permiso? Esa es la pregunta clave que ha sacudido al sector tecnológico tras conocerse el acuerdo judicial alcanzado por Anthropic, una de las startups de IA más prometedoras (respaldada por Amazon y Google), que ha aceptado pagar 1.500 millones de dólares para cerrar una demanda colectiva presentada por un grupo de autores.
Este caso marca un antes y un después en la relación entre desarrolladores de IA y creadores de contenidos.
¿De qué se acusa a Anthropic?
Según la demanda interpuesta en Estados Unidos por autores como Andrea Bartz o Kirk Wallace Johnson, Anthropic utilizó millones de libros protegidos por copyright, obtenidos desde bibliotecas piratas como Books3 o Library Genesis, para entrenar su modelo de lenguaje Claude, sin contar con licencias ni consentimiento de los titulares de derechos.
En palabras simples: los modelos de IA como Claude aprenden analizando grandes cantidades de texto, y en este caso, buena parte de ese “material de estudio” era contenido pirateado.
Un acuerdo histórico (pero no exento de polémica)
Para evitar llegar a juicio, Anthropic ha acordado pagar 1.500 millones de dólares, una cifra sin precedentes en el ámbito del copyright aplicado a la IA. El acuerdo contempla:
- Una compensación media de 3.000 dólares por libro afectado.
- La eliminación definitiva de los materiales utilizados de forma ilícita y de cualquier modelo entrenado con ellos.
- Un mecanismo de reclamación para autores, pendiente aún de validación judicial.
El juez William Alsup, sin embargo, ha expresado dudas sobre la transparencia y equidad del acuerdo, exigiendo a la empresa entregar un listado completo de los libros afectados y detallar el proceso de compensación antes del 25 de septiembre.
¿Por qué es importante este caso?
- Precedente legal: Es el primer gran caso en el que una empresa de IA asume responsabilidad económica por el uso de obras protegidas en sus entrenamientos. Marcará pauta para otras demandas pendientes contra OpenAI, Meta o Google.
- Valor del contenido: Reafirma que los datos creativos, libros, música, imágenes, tienen valor legal, ético y económico, incluso en la era de la IA.
- Reputación empresarial: el uso ilegítimo de datos e información puede poner en jaque incluso a grandes empresas tecnológicas.
- Impulso a licencias justas: Se abre la puerta a nuevas fórmulas de licenciamiento colectivo o soluciones tecnológicas que permitan entrenar IA con contenidos autorizados, respetando los derechos de los autores.
Reflexión desde INGENIAS
Desde nuestra experiencia en propiedad intelectual, este caso es una clara advertencia a las empresas tecnológicas y creativas:
"La innovación no puede construirse sobre la infracción sistemática de los derechos de autor."
Para empresas que desarrollan o integran IA, resulta urgente, en materia de propiedad intelectual:
- Auditar las fuentes de datos utilizadas para entrenar sus modelos.
- Aplicar principios de uso justo, proporcional y documentado.
- Explorar opciones de licencias colectivas o partnerships con editoriales, autores, diseñadores, etc.
¿Y ahora qué?
Con este acuerdo, Anthropic busca evitar un juicio que podría haber tenido consecuencias aún más duras.
Lo que sí está claro es que la industria de la inteligencia artificial ha dejado de desenvolverse en el impropiamente denominado “vacío legal”. A partir de ahora, los desarrolladores deberán ser tan estrictos en el cumplimiento de las normas sobre datos y obras protegidas como en la calidad y transparencia de sus algoritmos.
En INGENIAS, te ayudamos a anticiparte a estos desafíos. Escríbenos.
Tu creatividad merece ser protegida.