[ad_1]
Le monde n’est peut-être pas « si loin d’être potentiellement effrayant » les outils d’intelligence artificielle (IA), a déclaré le PDG d’OpenAI ce week-end.
Sam Altman, dont la société a créé le très populaire ChatGPT, donnait son avis sur l’état actuel et futur de l’IA dans un fil Twitter, suite à l’explosion de l’intérêt du public pour les outils d’IA générative.
Certains experts, cependant, ont déclaré à Euronews Next que plutôt que des applications d’IA « potentiellement effrayantes » soient au coin de la rue, nous vivons actuellement dans un « présent dystopique » grâce à l’utilisation de l’IA dans des environnements sensibles qui ont un impact réel sur les opportunités des gens. .
Altman s’exprimait suite à l’intégration de ChatGPT dans le moteur de recherche Bing de Microsoft, qu’un certain nombre d’experts techniques et de journalistes ont mis à l’épreuve – avec des résultats terrifiants.
Au cours d’une conversation de deux heures avec un chroniqueur technique du New York Times, Bing a professé son amour pour lui, a tenté de rompre son mariage et lui a dit « Je veux être en vie ».
D’autres ont signalé des menaces de violence et de chantage émanant du chatbot, qui est encore en phase de test.
Altman a déclaré dans son fil Twitter « l’adaptation à un monde profondément intégré aux outils d’IA va probablement se produire assez rapidement », tout en admettant que les outils étaient « encore quelque peu cassés ».
« La réglementation sera essentielle et prendra du temps à comprendre », a-t-il déclaré, ajoutant que « bien que les outils d’IA de la génération actuelle ne soient pas très effrayants, je pense que nous ne sommes potentiellement pas si loin des outils potentiellement effrayants ».
Alors, qu’en pensent les experts en éthique de l’IA – les personnes qui réfléchissent à l’avenir et tentent de façonner l’intégration future de l’IA dans notre vie quotidienne ?
« Le présent dystopique »
Alors qu’Altman affirme que « les outils d’IA de la génération actuelle ne sont pas très effrayants », certains experts ne sont pas d’accord.
Sarah Myers West, directrice générale de l’AI Now Institute, a déclaré à Euronews Next que « à bien des égards, c’est déjà là où nous en sommes », les systèmes d’IA étant déjà utilisés pour exacerber « des schémas d’inégalité de longue date ».
AI Now est un institut de recherche américain qui étudie les implications sociales de l’intelligence artificielle, les plaçant à l’avant-garde de la réflexion sur les défis que l’IA pose à la société.
« Ils sont utilisés dans des processus décisionnels très sensibles, souvent sans très peu de surveillance ou de responsabilité. Je pense donc que nous voyons déjà cela se dérouler autour de nous. Et c’est exactement ce qui anime la volonté d’examiner les approches politiques pour façonner le direction que cela prend », a déclaré Myers West.
Ces processus décisionnels délicats comprennent les processus d’embauche et l’éducation.
« Un domaine, juste comme un exemple parmi tant d’autres, est l’utilisation de la reconnaissance des émotions ou des affects. Ce qui est essentiellement l’affirmation selon laquelle vous pouvez déduire les états émotionnels ou mentaux intérieurs des gens à partir de leurs traits faciaux, et qu’il existe des systèmes d’IA particuliers qui peuvent lire les états émotionnels des gens et même leurs traits de personnalité », a déclaré Amba Kak, directeur exécutif d’AI Now.
Ces systèmes d’IA reposent sur des fondements scientifiques qui sont « au mieux fragiles » et ils « façonnent en fait l’accès des gens aux opportunités en temps réel », a-t-elle ajouté.
« Donc, il y a un besoin urgent de restreindre ces systèmes ».
Kak et Myers West repoussent tous les deux l’idée d’un futur dystopique, quant à eux, à certains égards, nous vivons dans un « présent dystopique ».
« Hier est le bon moment pour introduire des frictions dans ce processus afin de redistribuer ce pouvoir », affirme Myers West.
« Disons que nous acceptons que ces technologies sont une sorte d’avenir inévitable », a déclaré Kak.
« Je pense que nous cédons également du terrain au fait qu’une poignée d’entreprises technologiques auraient essentiellement un contrôle et un pouvoir énormes et injustifiables sur les sociétés et sur la vie des gens, et sur la façon dont finalement – et je ne pense pas que ce soit hyperbolique dire – même l’autonomie dont nous disposons pour penser, étant donné à quel point les algorithmes façonnent nos flux d’informations et tant d’aspects de nos vies ».
Dire que l’IA n’est actuellement pas réglementée serait cependant une idée fausse, a expliqué Kak.
Alors que l’UE et les États-Unis élaborent leurs cadres réglementaires en matière d’IA, il existe au moins des réglementations indirectes déjà en place.
Les infrastructures de données et de calcul qui composent les composants des technologies d’IA actuelles sont « déjà réglementées à de nombreux niveaux différents », par exemple avec les lois sur la protection des données dans l’UE.
D’autres types de systèmes d’IA sont déjà réglementés dans de nombreux pays, notamment en ce qui concerne la reconnaissance faciale et la biométrie, a-t-elle ajouté.
La réglementation signifie la capacité de façonner la direction que ces technologies peuvent nous prendre, dit Kak, « moins comme une sorte de force contraignante et plus comme une force de façonnage en termes de développement des technologies ».
Qu’est-ce qui s’en vient en termes de réglementation, et pourquoi ?
Selon l’Observatoire des politiques d’IA de l’Organisation de coopération et de développement économiques (OCDE), 69 pays et territoires ont déjà des initiatives actives en matière de politique d’IA, mais le plus important est que l’UE rédige actuellement sa propre loi sur l’IA, qui sera la première loi sur l’IA mise en place par un régulateur majeur.
Actuellement, la loi divise l’IA en quatre catégories basées sur les risques, celles qui présentent un risque minimal ou nul pour les citoyens – comme les filtres anti-spam – étant exemptées des nouvelles règles.
Les applications à risque limité incluent des éléments tels que les chatbots et nécessiteront de la transparence pour s’assurer que les utilisateurs savent qu’ils interagissent avec une IA.
Le risque élevé pourrait inclure l’utilisation de l’IA pour la reconnaissance faciale, les questions juridiques ou le tri des CV pendant les processus d’embauche. Ceux-ci pourraient causer des dommages ou limiter les opportunités, ils seront donc confrontés à des normes réglementaires plus strictes.
L’IA considérée comme un risque inacceptable – en d’autres termes, les systèmes qui constituent une menace manifeste pour les personnes – « seront interdites », selon la Commission européenne.
Thierry Breton, commissaire européen chargé du marché intérieur, a récemment déclaré que la montée en puissance soudaine d’applications comme ChatGPT et les risques associés soulignent l’urgence d’établir des règles.
Selon Francesca Rossi, membre IBM et responsable mondiale de l’éthique de l’IA chez IBM, « les entreprises, les organismes de normalisation, les organisations de la société civile, les médias, les décideurs politiques, toutes les parties prenantes de l’IA doivent jouer leur rôle complémentaire » pour atteindre l’objectif de s’assurer que l’IA est digne de confiance et utilisé de manière responsable.
« Nous soutenons la réglementation lorsqu’elle utilise une approche « de précision » basée sur les risques pour les applications d’IA, plutôt que la technologie de l’IA : les applications les plus risquées devraient être soumises à davantage d’obligations », a-t-elle déclaré à Euronews Next.
« Nous soutenons également les obligations de transparence qui transmettent les capacités et les limites de la technologie utilisée », a-t-elle ajouté, notant que c’est l’approche que l’UE adopte avec sa loi sur l’IA.
Elle défend un cadre d’éthique de l’IA à l’échelle de l’entreprise chez IBM, une entreprise qui soutient la transformation rapide vers l’utilisation de l’IA dans la société, « qui s’accompagne toujours de questions, de préoccupations et de risques à prendre en compte et à traiter de manière appropriée ».
« Il y a quelques années, nous ne pouvions pas imaginer bon nombre des capacités que l’IA prend désormais en charge dans nos vies personnelles et dans les opérations de nombreuses entreprises », a déclaré Rossi.
Comme les représentants de l’AI Now Institute, elle estime que « nous, en tant que société et individus », devons orienter la trajectoire du développement de l’IA « afin qu’elle puisse servir le progrès et les valeurs de l’homme et de la planète ».
L’IA pourrait « perturber l’ordre social »
L’une des craintes particulières exprimées par Kak et Myers West concernant le déploiement des systèmes d’IA dans la société était que les impacts négatifs ou positifs ne soient pas répartis uniformément.
« J’ai l’impression que parfois, il peut sembler que tout le monde sera également touché par les aspects négatifs, par les méfaits de la technologie, alors qu’en réalité, ce n’est pas vrai », a déclaré Kak.
« Les personnes qui construisent la technologie et les personnes qui vivent des formes de privilège similaires, qu’il s’agisse de race, de privilège, de privilège de classe, toutes ces choses, on a l’impression que ce sont des personnes qui ne seront probablement pas aussi lésées en voyant un algorithme de hiérarchisation raciste. Et donc la question à se poser n’est pas seulement si l’IA profitera à l’humanité, mais pour qui fonctionnera-t-elle et contre qui fonctionnera-t-elle ? »
C’est également un domaine d’intérêt pour Joanna Bryson, professeur d’éthique et de technologie à la Hertie School of Governance de Berlin.
Pour elle, le boom de l’IA pourrait s’avérer être une période de progrès technologique qui « perturbe l’ordre social actuel » tout en laissant certaines personnes de côté.
« Je pense que la société n’est stable que lorsque nous produisons ce genre de contextes, que les gens ont une idée d’où ils appartiennent et comment ils s’intègrent », a-t-elle déclaré à Euronews Next.
« Et ils sont fiers de leur travail et ils sont prêts à concourir pour cela, et ils gagnent assez d’argent pour être raisonnablement stables. Et donc ce qui m’inquiète vraiment, c’est que je pense juste que nous allons probablement à travers ces périodes où la technologie perturbe l’ordre social que nous avions ».
« À long terme, si vous ne gardez pas les gens heureux, intéressés, engagés et en bonne santé, et que vous êtes suffisamment bien payé et tout le reste, vous n’allez pas avoir une société sûre ».
Écrivant sur son blog fin 2022, concernant la question de ses plus grandes préoccupations concernant l’éthique de l’IA, Bryson a déclaré que les plus grands défis impliquant l’IA concernent la gouvernance numérique.
« Utilisons-nous la technologie de manière sûre, juste et équitable ? Aidons-nous les citoyens, les résidents et les employés à s’épanouir ? » elle a demandé.
L’UE étoffant encore sa loi sur l’IA avant de la présenter au Parlement européen fin mars, ces questions pourraient rester sans réponse pendant un certain temps.
En attendant, Meyers West tient à souligner que « nous avons une énorme marge de manœuvre pour façonner la direction dans laquelle notre avenir technologique nous emmène ».
« Je pense qu’il est vraiment important que ces conversations politiques se déroulent exactement dans cette veine, en veillant à ce qu’elles fonctionnent dans l’intérêt du grand public et pas seulement dans l’imagination de ceux qui les construisent et en profitent », a-t-elle déclaré.
[ad_2]
Source link -32