Customize this title in frenchLe doomérisme de l’IA est un leurre

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsMardi matin, les marchands d’intelligence artificielle ont de nouveau alerté sur la puissance existentielle de leurs produits. Des centaines de dirigeants, de chercheurs et d’autres personnalités de la technologie et des affaires de l’IA, dont le PDG d’OpenAI, Sam Altman et Bill Gates, ont signé une déclaration d’une phrase rédigée par le Center for AI Safety déclarant que « l’atténuation du risque d’extinction de l’IA devrait être un problème mondial ». priorité aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire.Ces 22 mots ont été publiés à la suite d’une tournée de plusieurs semaines au cours de laquelle des dirigeants d’OpenAI, Microsoft, Google et d’autres entreprises technologiques ont appelé à une réglementation limitée de l’IA. Ils ont parlé devant le Congrès, dans l’Union européenne et ailleurs de la nécessité pour l’industrie et les gouvernements de collaborer pour limiter les méfaits de leurs produits, même si leurs entreprises continuent d’investir des milliards dans la technologie. Plusieurs chercheurs et critiques éminents de l’IA m’ont dit qu’ils étaient sceptiques quant à la rhétorique, et que les réglementations proposées par Big Tech semblent défavorisées et intéressées.La Silicon Valley a montré peu de respect pour des années de recherche démontrant que les méfaits de l’IA ne sont pas spéculatifs mais matériels ; ce n’est que maintenant, après le lancement de ChatGPT d’OpenAI et une cascade de financements, qu’il semble y avoir beaucoup d’intérêt à paraître se soucier de la sécurité. « Cela ressemble à des relations publiques vraiment sophistiquées d’une entreprise qui va de l’avant avec la construction de la technologie même que son équipe signale comme des risques pour l’humanité », Albert Fox Cahn, directeur exécutif du Surveillance Technology Oversight Project, une organisation à but non lucratif qui défend contre la surveillance de masse, m’a dit.L’hypothèse tacite qui sous-tend la peur de «l’extinction» est que l’IA est destinée à devenir terrifiante, transformant le travail de ces entreprises en une sorte d’eschatologie. « Cela rend le produit plus puissant », m’a dit Emily Bender, linguiste informatique à l’Université de Washington, « si puissant qu’il pourrait éliminer l’humanité ». Cette hypothèse fournit une publicité tacite : les PDG, comme des demi-dieux, utilisent une technologie aussi transformatrice que le feu, l’électricité, la fission nucléaire ou un virus provoquant une pandémie. Vous seriez idiot de ne pas investir. C’est aussi une posture qui vise à les inoculer de la critique, en copiant les communications de crise des cigarettiers, des magnats du pétrole et de Facebook avant : Hé, ne vous fâchez pas contre nous ; nous les avons suppliés de réglementer notre produit.Pourtant, la supposée apocalypse de l’IA reste de la science-fiction. « Une histoire de fantôme fantastique et surrénalisante est utilisée pour détourner l’attention sur le problème que la réglementation doit résoudre », m’a dit Meredith Whittaker, co-fondatrice de l’AI Now Institute et présidente de Signal. Des programmes tels que GPT-4 ont amélioré leurs itérations précédentes, mais seulement progressivement. L’IA pourrait bien transformer des aspects importants de la vie quotidienne – peut-être faire progresser la médecine, remplacer déjà des emplois – mais il n’y a aucune raison de croire que tout ce qui est proposé par Microsoft et Google conduirait à la fin de la civilisation. « C’est juste plus de données et de paramètres ; ce qui ne se produit pas, ce sont des changements fondamentaux dans le fonctionnement de ces systèmes », a déclaré Whittaker.Deux semaines avant de signer l’avertissement d’extinction de l’IA, Altman, qui a comparé son entreprise au projet Manhattan et lui-même à Robert Oppenheimer, a remis au Congrès une version atténuée de la prophétie de la déclaration d’extinction : les types de produits d’IA que son entreprise développe s’améliorer rapidement, et donc potentiellement dangereux. Témoignant devant un panel du Sénat, il a déclaré que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants ». Altman et les sénateurs ont tous deux traité cette augmentation de puissance comme inévitable et les risques associés comme des « inconvénients potentiels » encore non réalisés.Mais de nombreux experts avec qui j’ai parlé étaient sceptiques quant à l’ampleur des progrès de l’IA par rapport à ses capacités actuelles, et ils étaient catégoriques sur le fait qu’elle n’avait pas du tout besoin d’avancer pour blesser les gens – en effet, de nombreuses applications le font déjà. Le fossé n’est donc pas de savoir si l’IA est nocive, mais quel dommage est le plus préoccupant – un futur cataclysme de l’IA dont seuls ses architectes mettent en garde et prétendent pouvoir l’éviter de manière unique, ou une violence plus quotidienne que les gouvernements, les chercheurs et le public vivent et combattent depuis longtemps, ainsi que les personnes à risque et la meilleure façon de prévenir ces dommages.Lis: C’est une période étrange pour être un préparateur apocalyptiquePrenons, par exemple, la réalité selon laquelle de nombreux produits d’IA existants sont discriminatoires : la reconnaissance faciale raciste et erronée, les diagnostics médicaux biaisés et les algorithmes de recrutement sexistes sont parmi les exemples les plus connus. Cahn dit que l’IA devrait être supposée lésée jusqu’à preuve du contraire. De plus, les modèles avancés sont régulièrement accusés de violation du droit d’auteur lorsqu’il s’agit de leurs ensembles de données et de violations du droit du travail lorsqu’il s’agit de leur production. Les médias synthétiques remplissent Internet d’escroqueries financières et de pornographie non consensuelle. Le «récit de science-fiction» sur l’IA, mis en avant dans la déclaration d’extinction et ailleurs, «nous détourne de ces domaines traitables sur lesquels nous pourrions commencer à travailler aujourd’hui», m’a dit Deborah Raji, une boursière de Mozilla qui étudie les biais algorithmiques. Et alors que les méfaits algorithmiques aujourd’hui blessent principalement les communautés marginalisées et sont donc plus faciles à ignorer, un supposé effondrement civilisationnel nuirait également aux privilégiés. « Quand Sam Altman dit quelque chose, même si c’est tellement dissocié de la manière réelle dont ces dommages se produisent réellement, les gens écoutent », a déclaré Raji.Même si les gens écoutent, les mots peuvent sembler vides. Quelques jours seulement après le témoignage d’Altman au Sénat, il a déclaré aux journalistes à Londres que si la nouvelle réglementation de l’UE sur l’IA était trop stricte, son entreprise pourrait « cesser ses activités » sur le continent. La volte-face apparente a provoqué un contrecoup, et Altman a ensuite tweeté qu’OpenAI n’avait « pas l’intention de quitter » l’Europe. « Il semble qu’une partie de la réglementation réelle et sensée menace le modèle commercial », a déclaré Bender de l’Université de Washington. Dans une réponse envoyée par e-mail à une demande de commentaires sur les remarques d’Altman et la position de son entreprise sur la réglementation, un porte-parole d’OpenAI a écrit : « La réalisation de notre mission exige que nous travaillions pour atténuer les risques actuels et à plus long terme » et que l’entreprise « collabore avec les décideurs politiques, les chercheurs et les utilisateurs » pour ce faire.La mascarade réglementaire est une partie bien établie du livre de jeu de la Silicon Valley. En 2018, après que Facebook ait été secoué par des scandales de désinformation et de confidentialité, Mark Zuckerberg a déclaré au Congrès que son entreprise avait « la responsabilité non seulement de créer des outils, mais de s’assurer qu’ils sont utilisés pour de bon » et qu’il accueillerait « le bon régulation. » Les plateformes de Meta ont depuis lamentablement échoué à limiter la désinformation électorale et pandémique. Début 2022, Sam Bankman-Fried a déclaré au Congrès que le gouvernement fédéral devait établir des « directives réglementaires claires et cohérentes » pour les crypto-monnaies. À la fin de l’année, sa propre entreprise de cryptographie s’était avérée être une imposture et il a été arrêté pour fraude financière à l’échelle du scandale Enron. « Nous assistons à une tentative très avisée d’éviter d’être regroupés avec des plateformes technologiques comme Facebook et Twitter, qui ont suscité un examen de plus en plus minutieux de la part des régulateurs sur les dommages qu’ils infligent », m’a dit Cahn.Au moins certains des signataires de la déclaration d’extinction semblent croire sincèrement que des machines super intelligentes pourraient mettre fin à l’humanité. Yoshua Bengio, qui a signé la déclaration et est parfois appelé un « parrain » de l’IA, m’a dit qu’il croyait que les technologies étaient devenues si capables qu’elles risquaient de déclencher une catastrophe mettant fin au monde, que ce soit en tant qu’entités sensibles voyous ou entre les mains d’un humain. « Si c’est un risque existentiel, nous avons peut-être une…

Source link -57