Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsDans le cadre du nouveau règlement numérique de l’UE, les plateformes en ligne doivent permettre aux auditeurs de regarder sous le capot et de noter leurs algorithmes. Mais plusieurs questions demeurent autour de cette tâche inédite. La loi sur les services numériques (DSA) introduira un régime spécifique pour les très grandes plateformes en ligne à partir du mois d’août. Ces plateformes systémiques devront analyser les risques sociétaux potentiels, comme la propagation de la désinformation, et proposer des mesures d’atténuation des risques. Ces mesures d’analyse et d’atténuation des risques feront l’objet d’audits indépendants évaluant leur pertinence pour se conformer à l’AVD. Ainsi, ce processus d’audit sera essentiel pour façonner la manière dont les plateformes interprètent et s’adaptent aux nouvelles règles de l’UE. La Commission européenne a publié un projet d’acte délégué pour définir la méthodologie de ces audits indépendants. Mais les retours d’expérience des cabinets d’audit, des entreprises technologiques et de la société civile pointent plusieurs points critiques pour ce territoire inexploré. Auditeurs Les cabinets d’audit ont constamment souligné l’absence de normes industrielles permettant d’auditer les algorithmes dans leurs commentaires et ont demandé à la Commission des indications supplémentaires sur le « niveau raisonnable d’assurance » pour se conformer aux différentes obligations de la DSA. « Le cadre scientifique n’est pas en place. Nous n’avons pas les réponses à ce que cette loi vise à réaliser. Comment définir un risque systémique ? Comment le mesurez-vous ? Adriana Iamnitchi, professeur de sciences sociales computationnelles à l’Université de Maastricht, a déclaré à EURACTIV. Le géant du conseil PwC a écrit dans sa réponse que « faire de l’auditeur le juge de ce qui constitue la conformité entraînera probablement une variabilité et créera potentiellement des désaccords entre les parties prenantes quant à savoir qui a placé la barre au bon niveau et si différentes entités sont traitées équitablement ». Le retour d’expérience de PwC recoupe celui de Deloitte et EY, grands cabinets d’audit appelés à dominer ce marché. Comme les audits d’algorithmes sont relativement nouveaux et techniquement complexes, seule une poignée d’entreprises ont l’expertise pour cette tâche ou les poches profondes pour acquérir les talents nécessaires. Plateformes Des incohérences et un manque de comparabilité sont quelque peu attendus, compte tenu des différents types de plateformes qui seront soumises aux audits, allant des médias sociaux aux moteurs de recherche. Les entreprises technologiques jugent l’acte délégué trop normatif, ne tenant pas compte de la diversité des cas d’utilisation et ne contraignant pas les auditeurs à être proportionnés dans leurs évaluations. « L’inconvénient d’imposer une norme (trop) prescriptive est qu’elle limite le choix des auditeurs et incite les auditeurs à suivre strictement la lettre de la loi, plutôt que son esprit », lit-on dans la soumission de Wikimedia. Un point sur lequel les auditeurs et les plateformes semblent s’accorder est qu’une certaine flexibilité devrait être envisagée pour la première année, compte tenu de la complexité du DSA et de la nouveauté de ce cadre. Cependant, un argument plus fondamental des acteurs du numérique est que l’industrie de l’audit pourrait ne pas avoir l’expertise pour évaluer le fonctionnement interne des plateformes. « Cela nous montre le paradoxe dans lequel nous nous trouvons. De nombreuses entreprises opaques et axées sur les données ont conduit à des complexités hors de portée même des personnes dont le travail consiste à les étudier, à savoir les universitaires », a déclaré Catalina Goanta, professeure agrégée de droit et de technologie à l’Université d’Utrecht, à EURACTIV. Société civile Au cœur des commentaires des représentants de la société civile se trouve la question : qui auditera les auditeurs ? Dans une réponse conjointe, les organisations à but non lucratif Algorithm Watch et AI Forensic ont souligné que les cabinets d’audit pourraient être incités à faire preuve d’indulgence dans leurs évaluations pour attirer et conserver des contrats. Ce risque d’« audit-washing » s’aggrave dans un contexte sans normes objectives. Pendant ce temps, les sociétés auditées auront toute latitude pour expurger les informations des rapports comme confidentielles, empêchant leur publication. Pour les membres de la société civile, la meilleure façon de contrôler les auditeurs et les plateformes est de permettre aux chercheurs approuvés d’accéder à la version complète des rapports d’audit. Dans le cadre de la DSA, les chercheurs approuvés sont autorisés à demander des données aux plates-formes, mais leur rôle dans le mécanisme d’audit est toujours en suspens sur le plan procédural. Plus généralement, il semble y avoir du scepticisme du côté de la société civile quant à savoir si les grands cabinets d’audit sont bien placés pour évaluer les risques systémiques, tels que ce que les médias sociaux pourraient entraîner pour les processus démocratiques. Et il y a déjà des acteurs qui tentent de combler ce vide. L’un est Algorithm Audit, une ONG dont la mission est d’évaluer éthiquement les critères des audits algorithmiques, en indiquant les avantages et les inconvénients dans des circonstances spécifiques. Sa méthodologie est appelée ‘algoprudence’, un mélange d’algorithme et de jurisprudence. « Il y aura un processus d’apprentissage collectif qui prendra de trois à cinq ans », a déclaré le cofondateur d’Algorithm Audit, Jurriaan Parie, ajoutant que cela dépendra beaucoup de la manière dont la Commission et son nouveau centre sur la transparence algorithmique s’engageront avec les auditeurs pour établir les meilleures pratiques. « C’est un processus. Ce ne sera pas parfait au début, mais nous devons commencer quelque part. La question est de savoir qui y prêtera attention », a conclu le professeur Iamnitchi. [Edited by Zoran Radosavljevic] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57