L’une des grandes zones grises de l’espace génératif en plein essor est de savoir si la formation des modèles d’IA sur le matériel protégé par le droit d’auteur sans l’autorisation des détenteurs de droits d’auteur viole le droit d’auteur. Cela a conduit un groupe d’auteurs à Sue Anthropic, la société derrière le chatbot AI Claude. Maintenant, un juge fédéral américain a statué que la formation de l’IA est couverte par des lois dites «d’utilisation équitable» et est donc légale, rapporte Engadget.
En vertu de la loi américaine, une utilisation équitable signifie que le matériel protégé par le droit d’auteur est autorisé à être utilisé si le résultat est considéré comme «transformateur». Autrement dit, le travail qui en résulte doit être quelque chose de nouveau plutôt que d’être entièrement dérivé ou un substitut de l’œuvre originale. Il s’agit de l’une des premières revues judiciaires du genre, et le jugement peut signifier un précédent pour les affaires futures.
Cependant, le jugement note également que les auteurs du demandeur ont toujours la possibilité de poursuivre anthropic pour le piratage. Le jugement stipule que la société a téléchargé illégalement (piraté) plus de 7 millions de livres sans payer, et les a également gardés dans sa bibliothèque interne même après avoir décidé qu’ils ne seraient pas utilisés pour former ou reconstituer le modèle d’IA à l’avenir.
Le juge a écrit: « Les auteurs soutiennent que Anthropic aurait dû payer pour ces copies de bibliothèque piratée. Cette ordonnance est d’accord. »











