Par Blake Brittain et Mike Scarcella
(Reuters) – Anthropic a informé un juge fédéral de San Francisco vendredi, qui a accepté de payer 1,5 milliard de dollars pour résoudre une action collective par un groupe d'auteurs qui ont accusé la société d'intelligence artificielle pour utiliser leurs livres pour former son chatbot Claude de ia sans autorisation.
Dans un document judiciaire, les plaignants ont demandé au juge de district William Alsup d'approuver l'accord après avoir annoncé l'accord en août sans divulguer les conditions ou le montant.
« Cet accord envoie un message puissant aux sociétés et créateurs de l'IA que le retrait du travail protégé par le droit d'auteur de ces sites de pirates est mauvais », ont déclaré les avocats des auteurs dans un communiqué. Ils le considéraient comme la plus grande reprise du droit d'auteur de l'histoire et la première du genre à l'ère de l'intelligence artificielle.
L'accord proposé marque le premier règlement d'une série de poursuites contre des sociétés technologiques, notamment OpenAI, Microsoft et objectif, sur l'utilisation du matériel protégé par le droit d'auteur pour former des systèmes d'âge génératifs.
Anthropic, dans le cadre de l'accord, a déclaré qu'il détruirait les faibles copies des livres que les auteurs accusés de piratage et, selon l'accord, peuvent encore faire face à des allégations de violation liées au matériel produit par les modèles d'IA de la société.
L'accord de 1,5 milliard de dollars équivaut à 3 000 $ pour 500 000 livres téléchargés et peut augmenter si davantage de travaux sont identifiés.
Dans un communiqué, Anthropic a déclaré que la société était «engagée dans le développement de systèmes d'assurance qui aident les personnes et les organisations à étendre leurs capacités, à promouvoir des découvertes scientifiques et à résoudre des problèmes complexes». L'accord n'inclut pas une admission de responsabilité.
Les scénaristes Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont déposé une action collective contre Anthropic l'année dernière. Ils ont fait valoir que la société, soutenue par Amazon et Alphabet, a illégalement utilisé des millions de livres de pirates pour enseigner à son assistant de l'IA, Claude, pour répondre aux demandes humaines.
Les allégations des écrivains ont fait écho à des dizaines d'autres processus ému par des auteurs, des agences de presse, des artistes visuels et d'autres qui affirment que les entreprises technologiques ont volé leur travail pour l'utiliser dans la formation d'IA.
Les entreprises ont fait valoir que leurs systèmes sont une utilisation équitable du matériel protégé par le droit d'auteur pour créer un contenu nouveau et transformant.
Alsup a décidé en juin qu'Anthropic avait fait un usage équitable du travail des auteurs pour former Claude, mais a conclu que la société violait ses droits en économisant plus de 7 millions de livres de pirates dans une «bibliothèque centrale» qui ne serait pas nécessairement utilisée à cet effet.
Un procès devait commencer en décembre pour déterminer la quantité anthropique due à un piratage supposé, avec des dommages possibles qui atteignent des centaines de milliards de dollars.
Vendredi, Mary Rasenberger, présidente exécutive du Guild Writers Group, a qualifié l'accord de «étape essentielle de reconnaître que les entreprises de l'IA ne peuvent pas simplement voler le travail créatif des auteurs pour construire leur IA».
La question fondamentale de l'utilisation équitable est toujours en cours de débat dans d'autres cas de droit d'auteur de l'IA. Un autre juge de San Francisco, écoutant un processus similaire en cours contre l'objectif, a déterminé, peu de temps après la décision d'Alsup, que l'utilisation de travaux protégés par le droit d'auteur sans autorisation de former l'IA serait illégale dans « de nombreuses circonstances ''.
