Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’un des professeurs à la pointe de l’intelligence artificielle a déclaré que les ministres n’en faisaient pas assez pour se protéger contre les dangers des machines super-intelligentes à l’avenir.Dans la dernière contribution au débat sur la sécurité du développement toujours plus rapide de l’IA, le professeur Stuart Russell a déclaré au Times que le gouvernement était réticent à réglementer l’industrie malgré les craintes que la technologie ne devienne incontrôlable et ne menace l’avenir de humanité.Russell, maître de conférences à l’Université de Californie à Berkeley et ancien conseiller des gouvernements américain et britannique, a déclaré au Times qu’il craignait que ChatGPT, qui a été publié en novembre, ne fasse partie d’une machine super intelligente qui ne puisse être contrainte. . »Comment maintenez-vous le pouvoir sur des entités plus puissantes que vous – pour toujours? » Il a demandé. « Si vous n’avez pas de réponse, alors arrêtez de faire la recherche. C’est aussi simple que ça. »Les enjeux ne pourraient pas être plus élevés : si nous ne contrôlons pas notre propre civilisation, nous n’avons pas notre mot à dire sur la question de savoir si nous continuons à exister. »Après la sortie de ChatGPT au public l’année dernière, qui a été utilisé pour écrire de la prose et a déjà inquiété les conférenciers et les enseignants quant à son utilisation dans les universités et les écoles, le débat s’est intensifié sur sa sécurité à long terme.Elon Musk, le fondateur de Tesla et propriétaire de Twitter, et le co-fondateur d’Apple Steve Wozniak, ainsi que 1 000 experts en IA, ont écrit une lettre pour avertir qu’il y avait une « course incontrôlable » en cours dans les laboratoires d’IA et ont appelé à une pause sur la création d’IA à grande échelle.La lettre avertissait que les laboratoires développaient « des esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable ».On s’inquiète également de son application plus large. Un comité de la Chambre des lords a entendu cette semaine le témoignage de Sir Lawrence Freedman, professeur d’études sur la guerre, qui a évoqué les inquiétudes quant à la manière dont l’IA pourrait être utilisée dans les guerres futures.Le rival de Google, Bard, devrait sortir dans l’UE plus tard cette année.Russell lui-même travaillait auparavant pour l’ONU sur la façon de surveiller le traité d’interdiction des essais nucléaires et a été invité à travailler avec Whitehall plus tôt cette année. Il a déclaré: « Le ministère des Affaires étrangères … a parlé à de nombreuses personnes et ils ont conclu que la perte de contrôle était un résultat plausible et extrêmement important. »ignorer la promotion de la newsletterArchie Bland et Nimo Omer vous guident à travers les meilleures histoires et ce qu’elles signifient, gratuitement tous les matins de la semaine », »newsletterId »: »morning-briefing », »successDescription »: »Nous vous enverrons la première édition tous les jours de la semaine »} » clientOnly>Avis de confidentialité: Les newsletters peuvent contenir des informations sur les organisations caritatives, les publicités en ligne et le contenu financé par des tiers. Pour plus d’informations, consultez notre politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletter »Et puis le gouvernement a proposé une approche réglementaire qui dit: » Rien à voir ici … nous accueillerons l’industrie de l’IA comme si nous parlions de fabriquer des voitures ou quelque chose comme ça « . »Je pense que nous nous sommes trompés au début, alors que nous étions tellement captivés par la notion de compréhension et de création d’intelligence, nous n’avons pas pensé à quoi cette intelligence allait servir », a-t-il déclaré. »À moins que son seul but ne soit d’être un avantage pour les humains, vous créez en fait un concurrent – et ce serait évidemment une chose stupide à faire.«Nous ne voulons pas de systèmes qui imitent le comportement humain… vous l’entraînez essentiellement à avoir des objectifs humains et à poursuivre ces objectifs. »Vous ne pouvez qu’imaginer à quel point il serait désastreux d’avoir des systèmes vraiment performants poursuivant ce genre d’objectifs. »
Source link -57