[ad_1]
OEn mai 2014, la Cour de justice européenne a rendu une décision historique selon laquelle les citoyens européens avaient le droit de demander aux moteurs de recherche de supprimer les résultats de recherche liés à du matériel publié légalement sur des sites Web tiers. Cela a été décrit de manière populaire mais trompeuse comme le « droit à l’oubli » ; il s’agissait en fait d’un droit de voir certains documents publiés sur le plaignant supprimés de la liste par les moteurs de recherche, dont Google était de loin le plus dominant. Ou, pour le dire crûment, un droit de ne pas être trouvé par Google.
Le matin où la décision a été rendue, j’ai reçu un appel téléphonique d’un employé relativement expérimenté de Google que je connaissais. Il était clair d’après son appel que la société avait été prise en embuscade par la décision – sa coûteuse équipe juridique ne s’y attendait manifestement pas. Mais il était également clair que ses patrons américains étaient exaspérés par l’effronterie d’une simple institution européenne à rendre un tel verdict. Et quand j’ai légèrement indiqué que je considérais cela comme un jugement raisonnable, j’ai eu droit à une tirade énergique, dont l’essentiel était que le problème avec les Européens, c’est qu’ils sont « hostiles à l’innovation ». À ce moment-là, la conversation s’est terminée et je n’ai plus jamais entendu parler de lui.
Cela me rappelle la réaction des entreprises technologiques à un projet de loi de l’UE publié le mois dernier qui, lorsqu’il entrera en vigueur dans environ deux ans, permettra aux personnes qui ont été lésées par des logiciels de poursuivre en justice les entreprises qui produisent et déployez-le. Le nouveau projet de loi, appelé directive sur la responsabilité en matière d’IA, complétera la loi de l’UE sur l’IA, qui devrait devenir une loi de l’UE à peu près au même moment. L’objectif de ces lois est d’empêcher les entreprises technologiques de diffuser des systèmes dangereux, par exemple : des algorithmes qui stimulent la désinformation et ciblent les enfants avec des contenus préjudiciables ; des systèmes de reconnaissance faciale souvent discriminatoires ; des systèmes d’IA prédictifs utilisés pour approuver ou rejeter des prêts ou pour guider les stratégies de police locales, etc., qui sont moins précis pour les minorités. En d’autres termes, des technologies qui sont actuellement presque entièrement non réglementées.
La loi sur l’IA impose des contrôles supplémentaires pour les utilisations « à haut risque » de l’IA qui ont le plus de potentiel de nuire aux personnes, en particulier dans des domaines tels que la police, le recrutement et les soins de santé. Le nouveau projet de loi sur la responsabilité, selon le MIT Examen de la technologie journal, « donnerait aux personnes et aux entreprises le droit de poursuivre en dommages-intérêts après avoir été lésées par un système d’IA. L’objectif est de responsabiliser les développeurs, les producteurs et les utilisateurs des technologies et de leur demander d’expliquer comment leurs systèmes d’IA ont été construits et formés. Les entreprises technologiques qui ne respectent pas les règles s’exposent à des recours collectifs à l’échelle de l’UE.
Juste au bon moment, apparaît la Computer & Communications Industry Association (CCIA), le groupe de lobbying qui représente les entreprises technologiques à Bruxelles. Sa lettre aux deux commissaires européens responsables des deux actes soulève d’emblée la crainte qu’imposer une responsabilité stricte aux entreprises technologiques « serait disproportionné et inadapté aux propriétés des logiciels ». Et, bien sûr, cela pourrait avoir « un effet dissuasif » sur « l’innovation ».
Ah oui. Ce serait la même innovation qui a conduit au scandale de Cambridge Analytica et à l’ingérence russe en ligne lors de l’élection présidentielle américaine de 2016 et du référendum britannique sur le Brexit et a permis la diffusion en direct de fusillades de masse. La même innovation derrière les moteurs de recommandation qui ont radicalisé les extrémistes et dirigé « 10 épingles à dépression que vous pourriez aimer » à une adolescente troublée qui a ensuite mis fin à ses jours.
Il est difficile de décider laquelle des deux affirmations de la CCIA – que la responsabilité stricte est « mal adaptée » au logiciel ou que « l’innovation » est la caractéristique déterminante de l’industrie – est la plus saugrenue. Depuis plus de 50 ans, l’industrie technologique s’est vu accorder une latitude étendue à aucune autre industrie, à savoir l’évitement de la responsabilité légale pour les innombrables lacunes et vulnérabilités de son produit principal ou les dommages que ces défauts causent.
Ce qui est encore plus remarquable, cependant, c’est que la prétention des entreprises technologiques à être les seuls maîtres de « l’innovation » a été prise pour argent comptant pendant si longtemps. Mais maintenant, deux éminents avocats de la concurrence, Ariel Ezrachi et Maurice Stucke, ont appelé les entreprises au bluff. Dans un nouveau livre remarquable, Comment les grands barons de la technologie écrasent l’innovation – et comment riposter, ils expliquent que les seuls types d’innovation que les entreprises technologiques tolèrent sont ceux qui correspondent à leurs propres intérêts. Ils révèlent à quel point les entreprises technologiques sont impitoyables pour étouffer les innovations perturbatrices ou menaçantes, que ce soit par acquisition préemptive ou copie nue, et que leur domination des moteurs de recherche et des plateformes de médias sociaux limite la visibilité des innovations prometteuses qui pourraient être utiles sur le plan concurrentiel ou sociétal. En tant qu’antidote à la bouffonnerie technologique, le livre sera difficile à battre. Il devrait être une lecture obligatoire pour tout le monde à l’Ofcom, à l’Autorité de la concurrence et des marchés et au DCMS. Et désormais « l’innovation pour qui ? devrait être la première question à tout booster technologique qui vous parle d’innovation.
Ce que j’ai lu
La toile du temps
L’épineux problème de l’heure d’Internet est un sujet fascinant New yorkais essai de Nate Hopper sur le génie qui, il y a de nombreuses années, a créé le système logiciel mystérieux qui synchronise les horloges du réseau.
Ligoté
Project Fear 3.0 est un excellent article de blog d’Adam Tooze sur la critique de l’administration conservatrice actuelle.
Progrès de la technologie
Ascension est un essai réfléchi de Drew Austin sur la façon dont notre relation à la technologie numérique a changé au cours de la période 2019-2022.
[ad_2]
Source link -8