Customize this title in french Oui, vous devriez vous inquiéter pour l’IA – mais les analogies de Matrix cachent une menace plus insidieuse | Samantha Floreani

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsUNs le nerd résident de la politique technologique parmi mes amis, je passe beaucoup de temps à répondre aux questions. Aider! J’ai fait partie d’une violation de données, que dois-je faire ? Qu’est-ce que la crypto et devrais-je m’en soucier? Et dernièrement : dois-je m’inquiéter que l’IA prenne le dessus et nous tue tous ?Il y a tellement de battage médiatique autour de l’intelligence artificielle que l’inquiétude est compréhensible mais il est important que nous gardions notre esprit critique. La frénésie actuelle de l’IA profite en fin de compte à ceux qui bénéficieront le plus de la mise en œuvre de ces produits, mais nous n’avons pas à les laisser dicter les termes de la conversation.S’il y a une chose que j’essaie de transmettre à mes amis – et maintenant à vous – c’est ceci : oui, vous devriez vous préoccuper de l’IA. Mais soyons clairs sur qui boogeyman est en fait caché sous le lit. Il est difficile de combattre un monstre si vous ne savez pas ce que c’est. Personne ne veut être le fou en utilisant un pieu en bois sur un zombie en vain.Plutôt que de nous inquiéter d’une peur lointaine d’une « menace existentielle » pour l’humanité, nous devrions nous inquiéter des conséquences matérielles de technologies d’IA beaucoup moins sophistiquées qui affectent la vie des gens en ce moment. Et de plus, nous devrions être profondément troublés par la façon dont l’IA est exploitée pour concentrer davantage le pouvoir dans une poignée d’entreprises.Trions donc la fiction spéculative de la réalité.Tous les deux jours, une personnalité de haut niveau colporte une prédiction apocalyptique sur le développement de l’IA laissée sans contrôle. Cela conduira-t-il à un ministère de la vérité à la George Orwell de 1984 ? Ou peut-être des machines à tuer hostiles fraîchement sorties de Terminator. Ou peut-être que ce sera plus comme The Matrix.Tout cela agit à la fois comme un exercice de marketing pour et une diversion des dommages les plus urgents causés par l’IA.Nous ne parlons pas du danger d’un avenir de science-fiction lointain, nous parlons de l’amplification des systèmes et des problèmes sociaux qui existent déjàTout d’abord, il est important de se rappeler que les grands modèles de langage comme GPT-4 ne sont pas sensibles ni intelligents, aussi compétents soient-ils pour imiter la parole humaine. Mais la tendance humaine à l’anthropomorphisme est forte, et elle est aggravée par des métaphores maladroites telles que la machine « hallucine » lorsqu’elle génère des sorties incorrectes. Dans tous les cas, nous sommes loin du genre d’intelligence artificielle générale (IAG) ou de « superintelligence » dont une poignée de voix fortes tirent la sonnette d’alarme.Le problème de pousser les gens à avoir peur de l’AGI tout en appelant à l’intervention est que cela permet à des entreprises comme OpenAI de se positionner comme les bergers technologiques responsables – les experts bienveillants ici pour nous sauver de dommages hypothétiques, tant qu’ils conservent le pouvoir, l’argent et la domination du marché pour le faire. Notamment, la position d’OpenAI sur la gouvernance de l’IA ne se concentre pas sur l’IA actuelle, mais sur un point arbitraire dans le futur. Ils accueillent favorablement la réglementation, tant qu’elle n’entrave pas ce qu’ils font actuellement.Nous n’avons pas besoin d’attendre une illusion hypothétique de tech-bro pour considérer – et combattre – les méfaits de l’IA. Les types de technologies et de techniques informatiques qui relèvent du terme marketing général de l’IA sont beaucoup plus larges que la fixation actuelle sur les grands modèles de langage ou les outils de génération d’images. Il couvre les systèmes moins spectaculaires que nous utilisons – ou qui nous sont utilisés – tous les jours, tels que les moteurs de recommandation qui organisent nos expériences en ligne, les technologies de surveillance telles que la reconnaissance faciale et certains systèmes de prise de décision automatisés, qui déterminent, par exemple, les interactions des gens avec la finance, le logement, l’aide sociale, l’éducation et l’assurance.L’utilisation de ces technologies peut entraîner et entraîne effectivement des conséquences négatives. Les préjugés et la discrimination sont monnaie courante dans les systèmes de prise de décision automatisés, entraînant des effets négatifs sur l’accès des personnes aux services, au logement et à la justice. La reconnaissance faciale renforce la surveillance et le maintien de l’ordre, aggravant l’effet de la violence sanctionnée par l’État contre de nombreux groupes marginalisés. Les systèmes de recommandation envoient souvent les gens dans des trous de lapin algorithmiques vers un contenu en ligne de plus en plus extrême. Nous n’avons pas besoin de spéculer sur les façons dont cette technologie peut causer des dommages ; nous avons déjà une montagne de preuves de la dernière décennie.ignorer la promotion de la newsletterInscrivez-vous pour Cinq bonnes lecturesChaque semaine, nos rédacteurs sélectionnent cinq des lectures les plus intéressantes, divertissantes et réfléchies publiées par Guardian Australia et nos collègues internationaux. Inscrivez-vous pour le recevoir dans votre boîte mail tous les samedis matin », »newsletterId »: »cinq-grandes-lectures », »successDescription »: »Merci de vous être abonné ! »} » clientOnly>Avis de confidentialité: Les newsletters peuvent contenir des informations sur les organisations caritatives, les publicités en ligne et le contenu financé par des tiers. Pour plus d’informations, consultez notre politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterQuant à l’IA générative, on voit déjà les types de préjudices qui peuvent survenir, de manière bien plus prosaïque que de devenir sensible et de décider de mettre fin à l’humanité. Comme la rapidité avec laquelle GPT-4 a été lancé comme moyen d’automatiser le harcèlement et l’intimidation par les agents de recouvrement. Ou comment il peut accélérer la manipulation de l’information, permettant l’usurpation d’identité et l’extorsion de personnes, en utilisant de nouvelles technologies pour de vieux trucs pour arnaquer les gens ; ou ajoutez une saveur high-tech à la misogynie grâce au porno deepfake. Ou comment ça s’enracine et cherche à faire des profits supplémentaires des modèles commerciaux du capitalisme de surveillance qui donnent la priorité à la génération, à l’accumulation et à la marchandisation des données.La ligne directrice ici est que nous ne parlons pas du danger d’un avenir de science-fiction lointain, nous parlons de l’amplification des systèmes et des problèmes sociaux qui existent déjà. Sarah Myers West d’AI Now a déclaré que l’accent mis sur les dommages futurs est devenu un tour de passe-passe rhétorique, utilisé par les personnalités de l’industrie de l’IA pour « positionner la responsabilité dans le futur ». Il est facile de prêter attention à l’imaginaire fantastique de l’IA, mais c’est dans les utilisations les plus banales que les conséquences réelles et matérielles se produisent.Interrogé sur ses avertissements sur les dangers de l’IA, le soi-disant « parrain de l’IA », Geoffrey Hinton, a rejeté les préoccupations des dénonciateurs de longue date tels que Timnit Gebru et Meredith Whittaker, affirmant que leurs préoccupations n’étaient pas aussi « existentielles » que les siennes. Suggérer que les préjugés et la discrimination endémiques, la manipulation omniprésente de l’information ou l’enracinement de la surveillance ne sont pas aussi graves que la chimère de l’AGI est dérangeant. Ce que ces gens ne réalisent pas, c’est que l’IA fait représentent une menace existentielle pour beaucoup, mais pas pour les personnes qui leur sont chères.Trop souvent, l’IA est présentée comme un compromis risque-bénéfice, où les preuves historiques et les risques actuels sont rejetés comme le coût d’un avenir hypothétique exagéré. On nous dit qu’il y a tellement de potentiel pour le bien, et que ralentir le « progrès » ou « l’innovation » nous empêcherait de le réaliser. Mais négliger les impacts matériels de l’IA passée et présente au profit d’un avenir imaginaire ne nous conduira pas à une technologie socialement progressiste. Et c’est bien plus inquiétant que les suzerains spéculatifs de l’IA. Samantha Floreani est une militante des droits numériques et écrivaine basée à Naarm

Source link -57