Customize this title in french Le plan d’IA de Rishi Sunak n’a pas de mordant – et une fois de plus, les grandes technologies sont prêtes à l’exploiter | Georg Riekeles et Max von Thun

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsTCe mois-ci, le Premier ministre britannique, Rishi Sunak, a convoqué des représentants du gouvernement, des sociétés d’IA et des experts à Bletchley Park – le lieu historique du décryptage allié pendant la Seconde Guerre mondiale – pour discuter de la manière dont cette technologie tant vantée peut être déployée en toute sécurité.Le sommet a été critiqué à juste titre pour un certain nombre de raisons, notamment en donnant la priorité à la contribution des grandes technologies plutôt qu’aux voix de la société civile et en se concentrant sur des risques existentiels farfelus plutôt que sur des préjudices tangibles du quotidien. Mais le plus grand échec du sommet – lui-même résultat direct de ces préjugés – est qu’il n’a rien eu de significatif à dire sur la maîtrise des entreprises dominantes qui représentent la plus grande menace pour notre sécurité.Les principales « réalisations » du sommet consistaient en un vague communiqué commun mettant en garde contre les risques liés aux modèles d’IA dits frontières et appelant à un « dialogue mondial inclusif » ainsi qu’à un accord (entièrement volontaire) entre les gouvernements et les grandes entreprises d’IA sur les tests de sécurité. Pourtant, aucune de ces mesures n’a de véritable poids et, pire encore, elles donnent aux puissantes entreprises une place privilégiée à la table des négociations lorsqu’il s’agit d’orienter le débat sur la réglementation de l’IA.Les grandes technologies promeuvent actuellement l’idée que leur contrôle exclusif sur les modèles d’IA est le seul moyen de protéger la société contre des dommages majeurs. Selon les termes d’une lettre ouverte signée par 1 500 acteurs de la société civile, accepter ce postulat est « au mieux naïf, au pire dangereux ».Les gouvernements qui souhaitent véritablement garantir que l’IA soit utilisée dans l’intérêt public adopteraient une approche très différente. Au lieu de déclarations d’intention à consonance noble et d’accords en coulisses avec l’industrie, ce qu’il faut réellement, ce sont des mesures sévères ciblant le pouvoir des entreprises elles-mêmes. L’application agressive de la politique de concurrence et des obligations réglementaires strictes pour les contrôleurs d’accès dominants sont essentielles.À l’heure actuelle, une poignée de géants de la technologie ont utilisé leur monopole collectif sur la puissance de calcul, les données et l’expertise technique pour prendre l’avantage en matière de modèles de base d’IA à grande échelle. Il s’agit de modèles entraînés sur de larges pans de données qui peuvent être adaptés à un large éventail de tâches, par opposition aux applications d’IA conçues dans un but spécifique. Les petites entreprises qui n’ont pas accès à ces ressources rares se retrouvent à signer des accords unilatéraux avec (ou à être rachetées par) des acteurs plus importants pour y avoir accès. Le rachat de Deepmind par Google et le « partenariat » d’OpenAI avec Microsoft de 13 milliards de dollars sont les exemples les plus connus, mais pas les seuls.Les géants de la technologie dominent également de nombreux autres marchés (notamment les moteurs de recherche, le cloud computing et les navigateurs), qu’ils peuvent exploiter pour enfermer les utilisateurs dans leurs propres modèles et services d’IA. Alors que de plus en plus de personnes gravitent autour et fournissent des données à une poignée de modèles et de services d’IA, les effets de réseau et les économies d’échelle vont encore amplifier cet avantage initial considérable.Dans le jargon des économistes, il s’agit d’un marché sujet aux basculements. Un marché concentré pour les modèles de fondation permettrait à une poignée d’entreprises dominantes d’orienter et d’accélérer l’innovation en matière d’IA, et leur permettrait d’exploiter, d’extorquer et de manipuler les nombreuses entreprises, créateurs, travailleurs et consommateurs qui dépendent de leurs services et infrastructures.En bref : les gagnants technologiques d’hier étendent et renforcent désormais leur emprise monopolistique grâce à l’IA. Les gouvernements ne devraient pas être complices de cela. Les autorités antitrust n’ont peut-être pas réussi à empêcher la monopolisation des technologies numériques dans le passé, mais la politique de la concurrence – si elle est appliquée efficacement – ​​a un rôle majeur à jouer dans la lutte contre la concentration de l’IA.Les autorités de la concurrence doivent utiliser leurs pouvoirs existants pour contrôler les rachats, les cartels et les comportements monopolistiques afin d’empêcher une poignée de gardiens du numérique de se déchaîner dans leur quête de profits toujours plus importants. Cela nécessite désormais d’enquêter et, si nécessaire, de rompre les accords anticoncurrentiels entre les grandes startups de la technologie et de l’IA, et d’empêcher les gardiens du numérique d’exploiter leur contrôle sur les plateformes dominantes, telles que la recherche et le cloud computing, pour consolider leur emprise sur l’IA.Mais il est également important de reconnaître que même dans un marché concurrentiel, le nombre de fournisseurs de modèles à grande échelle sera limité, compte tenu des ressources nécessaires pour former et déployer de tels modèles. C’est là que la réglementation doit intervenir pour imposer des responsabilités sans précédent aux entreprises dominantes.À mesure que l’IA joue un rôle plus important dans la prise de décision au sein de la société, la sécurité, la fiabilité, l’équité et la responsabilité deviennent essentielles. Les systèmes d’IA peuvent perpétuer les préjugés de leurs ensembles de données ou de leur formation sous-jacents et générer des réponses plausibles mais fausses connues sous le nom d’« hallucinations ». S’ils sont déployés par des personnes malveillantes, ils peuvent également être utilisés pour créer une propagande convaincante, espionner les travailleurs et manipuler ou discriminer des individus.Ces préjudices sont particulièrement graves lorsqu’ils proviennent d’un modèle de fondation en raison des effets en cascade sur les utilisations en aval. Les préjugés, les erreurs, la discrimination, la manipulation ou les décisions arbitraires présentent donc des risques singuliers au niveau des fondations.L’Union européenne s’efforce actuellement de devenir la première autorité mondiale à proposer des règles contraignantes en matière d’IA imposant des obligations sur différentes utilisations de l’IA en fonction du risque. Cependant, la loi européenne sur l’IA a du mal à être à la hauteur de la menace du modèle de base.ignorer la promotion de la newsletter passéeInscrivez-vous pour C’est l’EuropeLes histoires et débats les plus urgents pour les Européens – de l’identité à l’économie en passant par l’environnement », »newsletterId »: »c’est-ce-que-l’Europe », »successDescription »: »Les histoires et les débats les plus urgents pour les Européens – de l’identité à l’économie en passant par l’environnement »} » config= » »renderingTarget »: »Web », « darkModeAvailable »:false »>Avis de confidentialité: Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre Politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterActuellement, les législateurs européens envisagent d’imposer un nouvel ensemble d’obligations échelonnées aux fournisseurs de modèles de fondations. Entre autres choses, ces prestataires pourraient être tenus de partager des informations avec les régulateurs sur les processus de formation (y compris l’utilisation de données sensibles et protégées par le droit d’auteur) et de se soumettre à un audit des risques systémiques.Cela contribuera dans une certaine mesure à atténuer les risques liés à l’IA. Mais au-delà de cela, compte tenu de leur rôle central dans l’écosystème de l’IA, les entreprises dominantes fournissant des modèles à grande échelle doivent se voir confier des responsabilités strictes et primordiales pour se comporter de manière équitable et dans l’intérêt public.Une façon d’y parvenir, en s’appuyant sur les idées développées par Jack Balkin de la Yale Law School et Luigi Zingales de l’Université de Chicago, serait d’imposer un certain nombre d’obligations fiduciaires aux prestataires de GPAI. Une obligation fiduciaire constitue la norme de diligence la plus élevée en droit et implique d’être tenu, tant sur le plan juridique qu’éthique, d’agir dans l’intérêt d’autrui.Une approche alternative ou complémentaire consisterait à désigner des contrôleurs d’accès numériques comme des services publics (ou « common carriers » dans la terminologie américaine), chargés de traiter leurs clients équitablement et d’assurer la sécurité opérationnelle. Ce statut juridique pourrait éventuellement s’appliquer à la fois aux modèles de base sur lesquels les applications d’IA sont construites et à l’infrastructure de cloud computing qui les héberge. La loi européenne sur les marchés numériques, qui impose des obligations favorables à la concurrence aux entreprises technologiques dominantes, est une voie potentielle pour y parvenir.Ce qui est tout à fait clair, c’est que nous ne pouvons pas faire confiance à l’autorégulation des entreprises individuelles, et encore moins aux grandes technologies, pour garantir la sécurité…

Source link -57