El constructor de chatbot Anthrope acordó pagar $ 1.5 mil millones a los autores en un acuerdo histórico de derechos de autor que podrían redefinir cómo las empresas de inteligencia artificial compensan a los fabricantes.
La startup con sede en San Francisco está lista para pagar a los autores y editores para organizar una demanda que acusó a la compañía del uso ilegal de su trabajo para capacitar a su chatbot.
Anthrope desarrolló un asistente de IA llamado Claude que puede generar texto, imágenes, código y más. Los escritores, artistas y otros profesionales creativos han expresado su preocupación de que las compañías antrópicas y otras compañías de tecnología usen su trabajo para capacitar sus sistemas de IA sin su permiso y no compensar razonablemente.
Como parte del acuerdo, que el juez aún tiene que aprobar, Anthrope acordó pagar a los autores $ 3,000 por trabajo por un estimado de 500,000 libros. Es el acuerdo más grande que se conoce por un derechos de autor, que identifica a otras compañías de tecnología que se enfrentan a acusaciones de infracción de derechos de autor de que también pueden tener que pagar a los titulares de la ley.
Meta y Openai, el creador de ChatGPT, también han sido demandados por infracción de derechos de autor. Walt Disney Co. y Universal Pictures han demandado a la compañía AI MidJourney, los estudios afirman haber capacitado a sus modelos para la generación de imágenes en sus materiales protegidos por derechos de autor.
«Ofrecerá una tarifa significativa para cada trabajo de clase y es un precedente que requiere que las compañías de IA pague a los propietarios de derechos de autor», dijo Justin Nelson, abogado de los autores, en un comunicado. «Este esquema envía un mensaje poderoso a las compañías de IA y a los creadores de que tomar obras con derechos de autor de estos sitios web piratas está mal».
El año pasado, los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson Anthrope lo demandaron, alegando que la compañía cometió un «robo a gran escala» y notaron su chatbot en libros protegidos ilegales de derechos de autor.
El juez de distrito estadounidense William Alsup, de San Francisco, dictaminó en junio que el uso de los libros de Anthrope para capacitar a los modelos de IA «uso razonable», por lo que no era ilegal. Pero el juez también dictaminó que la startup había descargado incorrectamente millones de libros a través de bibliotecas en línea.
El uso justo es una doctrina legal en la legislación de derechos de autor de EE. UU. Que, en ciertos casos, hace el uso limitado de los materiales protegidos por derechos de autor en ciertos casos, como educación, críticas y noticias. Las compañías de IA han señalado que la doctrina es una defensa cuando se les acusa de presuntas violaciones de derechos de autor.
Anthrope, fundada por ex empleados de Operai y apoyado por Amazon, Piraterij al menos 7 millones de libros de Books3, Biblioteca Genesis y Mirror de la Biblioteca Pirate, Bibliothen en línea con copias no autorizadas de libros con derechos de autor, para capacitar su software, según el juez.
También compró millones de copias impresas a granel y descubrió los lazos de los libros, cortó sus páginas y las escaneó en formularios digitales y legibles a máquina, que según la pronunciación del juez estaban en los límites de uso razonable.
En el siguiente orden, Alsup señaló el posible daño a los propietarios de derechos de autor de los libros descargados por Anthrope de Shadow Liber y Pilimi.
Aunque el precio era enorme y sin precedentes, podría haber sido mucho peor según algunos cálculos. Si se cargó una multa máxima antropalmente por cada uno de los millones de obras que utilizó para entrenar su IA, el proyecto de ley podría haber sido más de $ 1 billón, sugieren algunos cálculos.
Anthrope no estuvo de acuerdo con la declaración y no admitió mala conducta.
«La regulación de hoy, si se aprueba, resolverá los reclamos heredados restantes de los demandantes», dijo Aparna Sridhar, abogada general adjunta de antrópico, en un comunicado. «Continuamos comprometiéndonos con el desarrollo de sistemas de IA seguros que ayuden a las personas y las organizaciones a expandir sus capacidades, promover el descubrimiento científico y resolver problemas complejos».
La disputa antrópica con los autores es uno de los muchos casos en los que los artistas y otros fabricantes de contenido desafían a las compañías detrás de la IA generativa para compensar el uso de contenido en línea para capacitar sus sistemas de IA.
La capacitación incluye alimentar enormes cantidades de datos, incluidos mensajes en las redes sociales, fotos, música, código de computadora, video y más, para entrenar bots de IA para distinguir patrones de lenguaje, imágenes, sonido y conversaciones que pueden imitar.
Algunas compañías de tecnología han prevalecido en demandas por derechos de autor que se han presentado contra ellos.
En junio, un juez rechazó una demanda que los autores presentaron contra la compañía madre de Facebook Meta, quien también desarrolló un asistente de IA, alegando que la compañía ha robado su trabajo para capacitar sus sistemas de IA. El juez del distrito de EE. UU. Vince Chhabria señaló que el caso judicial fue desechado porque los «argumentos incorrectos» de los demandantes, pero el fallo no afirmó que el uso de material protegido por derechos de autor para capacitar a sus modelos de idiomas es legal. «
Los grupos comerciales que representan a los editores elogiaron la regulación antrópica el viernes y las marcas de que envía una gran señal a las compañías de tecnología que desarrollan poderosas herramientas de inteligencia artificial.
«Además de las condiciones monetarias, el asentamiento propuesto ofrece un enorme valor al enviar el mensaje de que las compañías de inteligencia artificial no pueden adquirir contenido de bibliotecas de sombra u otras fuentes piratas como bloques de construcción para sus modelos», dijo Maria Pallante, presidenta y directora ejecutiva de la Asociación de Editores Americanos.
Associated Press ha contribuido a este informe.