Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
Si 2023 était l’année de l’IA, 2024 pourrait être l’année des poursuites judiciaires. Avec Anthropic préparant une défense dans un procès pour droit d’auteur apporté par la plus grande société de musique au monde et Open AI être poursuivi en justice Pour de nombreux auteurs figurant sur la liste des best-sellers du New York Times, la question de savoir qui est responsable lorsqu’un modèle d’IA vole le travail de quelqu’un d’autre, et s’il s’agit réellement d’un vol, est devenue de grandes questions.
Lors de sa toute première conférence de la journée des développeurs au début du mois, OpenAI a tenté de s’attaquer de front à la situation en annonçant Copyright Shield. C’est une promesse qu’OpenAI paiera les frais juridiques de ses clients professionnels au cas où ils seraient poursuivis pour quelque chose qu’ils auraient fait en utilisant ses produits. À mesure que les services d’IA générative comme OpenAI ajoutent plus de fonctionnalités, les utilisateurs peuvent leur demander de tout faire, de la création d’œuvres d’art et de vidéos à l’écriture de scénarios, de romans et de sites Web.
« Nous pouvons défendre nos clients et payer les frais encourus si vous faites face à des réclamations juridiques concernant le droit d’auteur », a déclaré Sam Altman, PDG d’OpenAI, dans son discours d’ouverture.
Mais son rival d’OpenAI, Anthropic, fondé par d’anciens chercheurs d’OpenAI et soutenu par des milliards de dollars d’investisseurs comme Google et Amazon adopte une approche différente. Dans une lettre adressée le mois dernier au Bureau du droit d’auteur des États-Unis, Janel Thamkul, avocat général adjoint d’Anthropic, a exposé la position de l’entreprise sur la question de la violation du droit d’auteur.
Comme beaucoup d’autres sociétés d’IA, Anthropic soutient que la formation de grands modèles de langage sur du matériel protégé par le droit d’auteur devrait relever de l’utilisation équitable, car le contenu est copié uniquement à des fins d’analyse statistique et non pour son contenu expressif.
« La copie est destinée à la fonctionnalité, pas à la créativité », écrit Thamkul. Elle le compare à Sega Enterprises contre Accoladeune affaire historique de 1992 dans laquelle le géant du jeu vidéo Sega a poursuivi en justice sans succès une start-up décousue de la Silicon Valley pour ingénierie inverse d’une console Genesis afin de créer des jeux concurrents pour celle-ci.
Thamkul affirme également dans la lettre que l’IA d’Anthropic a été conçue pour éviter de produire des œuvres créatives qui portent atteinte aux droits d’auteur d’autrui. « Les résultats ne se contentent pas de « mash-up » ou de « collage » de texte existant », écrit-elle.
Mais dans la mesure où la responsabilité existe, Anthropic affirme que c’est la personne qui utilise le produit qui en porte la responsabilité.
« La responsabilité d’un résultat particulier incombera à la personne qui a saisi l’invite pour le générer. Autrement dit, c’est l’utilisateur », écrit Thamkul. « Si nous détectons des contrevenants ou des contrevenants répétés, nous prendrons des mesures à leur encontre, notamment en fermant leurs comptes. »
L’approche d’Anthropic représente un « modèle traditionnel de transfert de responsabilité », déclare Erika Fisher, directrice administrative et juridique chez Atlassian, un fabricant de logiciels de productivité et un client d’OpenAI. Fisher, un avocat d’entreprise chevronné, fait partie d’un groupe de travail au sein d’Atlassian qui étudie comment conseiller les clients sur les pièges juridiques potentiels liés à l’utilisation de l’IA générative.
Elle dit que la promesse Copyright Shield d’OpenAI semble nouvelle et convaincante pour les entreprises clientes qui cherchent à déployer des outils basés sur l’IA sans engager de nouvelles responsabilités.
Mais elle dit que cet engagement pourrait finalement s’avérer discutable, car si les tribunaux décident que ces sociétés d’IA générative doivent payer les détenteurs de droits d’auteur afin d’utiliser leur matériel pour entraîner leurs modèles – plutôt que de tout engloutir gratuitement – cela les a probablement profondément blessés.
« La réalité est que dans certaines affaires en cours, si elles ne sont pas tranchées favorablement en faveur d’Open AI, je ne suis pas sûr qu’elles puissent pérenniser leur modèle économique », a déclaré Fisher. « Donc, à ce stade, ils ont de plus gros problèmes qu’une liste de frais d’indemnisation à payer. »
Vous travaillez dans l’IA et avez une histoire à partager ? Contactez Darius Rafieyan par téléphone ou Signal au +1-714-651-1367 ou par email à [email protected]