Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Après qu’une enquête de Stanford auprès de chercheurs a montré que plus d’un tiers pensent que l’IA (intelligence artificielle) pourrait provoquer une « catastrophe de niveau nucléaire », l’un des directeurs de l’Institute for Human-Centered Artificial Intelligence du California College a déclaré qu’une autre clé de cette peur est déchiffrer quel système de valeurs les robots d’entrée humaine mais autodéterminants détiennent.
« Je pense qu’il y a un peu d’inquiétude écrasante chez une minorité de personnes qui développent cette technologie. Et une partie de cela est la crainte que cette technologie devienne incontrôlable et hors de nos mains », a déclaré Russell Wald, directeur général de l’institut pour la politique et la société, a déclaré lundi sur « L’histoire avec Martha MacCallum. »
« Je pense que c’est probablement un sous-ensemble assez limité. Mais le plus gros problème ici, je pense que nous devons examiner, c’est qui a un siège à cette table – et s’assurer que nous avons un ensemble plus diversifié de personnes à la table afin que nous peut sortir un peu de cette hystérie. »
Wald a déclaré qu’au moment où des entités comme ChatGPT et d’autres développent une hyper-intelligence, il est important de savoir si le développeur a à l’esprit les meilleurs intérêts de l’humanité.
DES CHERCHEURS DE STANFORD CRÉENT UNE MINI SIMULATION DU MONDE DE L’OUEST
À l’heure actuelle, il a déclaré que seuls la Chine et les États-Unis avaient des entités dotées de cette capacité, l’inférence étant le fait que les deux pays avaient des fondements et des systèmes de valeurs radicalement différents.
« En dessous, la question est de savoir quelles valeurs sont à la table ? Est-ce celles de la Silicon Valley et de Pékin ou est-ce le reste du pays ? » il a dit.
« Et si nous voulons que le reste du pays soit à la table, nous allons devoir fournir un niveau d’infrastructure de calcul pour le rendre disponible pour que d’autres parties prenantes soient ici et aient une vision plus équilibrée et réfléchie à ce sujet. »
L’ancre Martha MacCallum a répondu que le dirigeant de Google, Sundar Pichai, se serait prononcé en faveur d’entités d’IA reflétant les valeurs américaines et occidentales, montrant que c’est une préoccupation légitime de savoir comment l’IA répondra en termes subjectifs à ses résultats objectifs.
UN EXPERT DE L’IA ALARMÉ APRÈS QUE CHAT-GPT AIT CONÇU UN PLAN POUR « S’ÉCHAPPER »
Dans un segment de prévisualisation de l’interview de Tucker Carlson avec Elon Musk diffusée lundi à 20 h HE sur Fox News, le PDG de Tesla et Twitter a affirmé la préoccupation de l’hôte que certains développeurs enseignent à l’IA à « mentir ».
« Ce serait ironique », a répondu Musk. « Mais la foi, le résultat le plus ironique, est la plus probable, semble-t-il. »
Wald a déclaré qu’il ne croyait pas que l’IA était entraînée à mentir, mais plutôt qu’il y avait une « confiance excessive » dans les systèmes de données sur lesquels elle était entraînée – en ce sens qu’ils commenceraient à inventer le contexte et à créer leurs propres réponses.
CLIQUEZ POUR OBTENIR L’APPLICATION FOX NEWS
« C’est une préoccupation. Et c’est ce domaine émergent que nous commençons à étudier et nous devons comprendre un peu plus pourquoi cela se produit », a-t-il déclaré. « Et une bonne partie de cela, ce sont les données. »
« L’autre partie de cela est que nous devons nous assurer que les bonnes valeurs sont là et que nous avons un ensemble de points de vue diversifié afin que nous n’ayons pas ce côté relativiste culturel, mais nous avons en fait une pleine diversité de opinions qui se dégagent sur certaines de ces technologies. »