Customize this title in french « Vous pouvez faire les deux » : les experts recherchent une « bonne IA » tout en essayant d’éviter la mauvaise | Intelligence artificielle (IA)

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’humanité est à la croisée des chemins qui peut se résumer à l’IA pour le bien contre l’IA qui a mal tourné, selon un expert en intelligence artificielle de premier plan. »Je vois deux avenirs ici », a déclaré vendredi l’auteur, le professeur Gary Marcus, lors du sommet mondial AI for Good de l’ONU.Dans sa version plus rose, l’IA révolutionne la médecine, aide à faire face à l’urgence climatique et prodigue des soins compatissants aux personnes âgées. Mais nous pourrions être au bord d’une alternative plus sombre, avec une cybercriminalité incontrôlable, des conflits dévastateurs et une descente dans l’anarchie. « Je ne dis pas ce qui s’en vient ; Je dis que nous devons comprendre ce que nous faisons », a déclaré Marcus au sommet.Au cours de l’événement d’une semaine, ostensiblement axé sur le positif, les délégués ont entendu de nombreux exemples d’exploitation de l’IA au profit de l’humanité. Un casting d’ambassadeurs de robots, dont les regards itinérants pouvaient sembler énervants face à face, ont offert de nouvelles visions sur la façon dont les personnes âgées pouvaient conserver leur indépendance plus longtemps ou comment les enfants autistes pouvaient découvrir le monde sans se sentir dépassés.La directrice de l’exploitation de Google DeepMind, Lila Ibrahim, a décrit comment la percée du repliement des protéines de la société pourrait transformer la médecine. Werner Vogels, directeur de la technologie chez Amazon, a décrit un système de vision artificielle permettant de suivre 100 000 saumons gardés ensemble dans un enclos pour détecter les maladies. La pisciculture basée sur l’IA n’est peut-être pas l’image la plus réconfortante, a-t-il reconnu, mais pourrait réduire radicalement l’empreinte carbone de la production alimentaire mondiale. Dans ce qui pourrait être un clin d’œil à ceux qui considèrent que «l’IA pour le bien» est principalement un exercice de relations publiques, Vogels a noté que les technologies de pointe «ont le potentiel non seulement de faire de l’IA pour de bon, mais de faire de l’IA à des fins lucratives en même temps. ”.Dans les coulisses cependant, les tables rondes entre diplomates et délégués invités se sont concentrées moins sur la « bonne IA » et davantage sur la question urgente de savoir comment éviter le mauvais. »Ce n’est pas suffisant si Google fait un tas d’IA pour de bon. Ils doivent également ne pas être mauvais », a déclaré le professeur Joanna Bryson, experte en éthique et technologie à l’école Hertie de Berlin, qui n’assistait pas à la conférence. « Le bien et le mal peuvent être opposés, mais faire le bien et faire le mal ne sont pas opposés. Vous pouvez faire les deux.C’est un risque, disent certains, même pour des applications apparemment positives de l’IA. Un robot, chargé d’aller chercher un café, par exemple, peut labourer tout et tout le monde sur son passage pour atteindre cet objectif étroit. ChatGPT, bien qu’étonnamment habile avec le langage, semble inventer tout le temps. »Si les humains se comportaient de cette façon, on dirait qu’ils ont une sorte de psychose », a déclaré le professeur Stuart Russell, un pionnier de l’IA à l’Université de Californie à Berkeley. Mais personne ne comprend pleinement le fonctionnement interne de ChatGPT et il ne peut pas être facilement programmé pour dire la vérité. « Il n’y a nulle part où mettre cette règle », a déclaré Russell. »Nous savons comment créer une IA que les gens veulent, mais nous ne savons pas comment créer une IA à laquelle les gens peuvent faire confiance », a déclaré Marcus.La question de savoir comment imprégner l’IA de valeurs humaines est parfois appelée « problème d’alignement », bien qu’il ne s’agisse pas d’un casse-tête informatique bien défini qui puisse être résolu et mis en œuvre en droit. Cela signifie que la question de savoir comment réglementer l’IA est une question scientifique massive et ouverte – en plus d’importants intérêts commerciaux, sociaux et politiques qui doivent être navigués.Les scientifiques et certaines entreprises technologiques se penchent sérieusement sur ces questions, mais dans certains cas, il s’agit d’un jeu de rattrapage avec des technologies déjà déployées. Marcus a profité de sa présentation pour lancer un Centre pour l’avancement de l’IA digne de confiance, qui, espère-t-il, agira comme une agence internationale financée par des fonds philanthropiques semblable au Cern sur le thème.ignorer la promotion de la newsletterLa plongée hebdomadaire d’Alex Hern sur la façon dont la technologie façonne nos vies », »newsletterId »: »tech-scape », »successDescription »: »Nous vous enverrons TechScape chaque semaine »} » clientOnly>Avis de confidentialité: Les newsletters peuvent contenir des informations sur les organisations caritatives, les publicités en ligne et le contenu financé par des tiers. Pour plus d’informations, consultez notre politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterLe professeur Maja Mataric de l’Université de Californie du Sud a décrit une nouvelle recherche (publiée sur Arxiv) analysant les personnalités des modèles de grande langue – et comment ils pourraient être façonnés pour être prosociaux afin de « les protéger ». « Je ne veux pas d’une personnalité bizarre », a-t-elle déclaré. « Des systèmes bien conçus peuvent être bons pour l’humanité. »D’autres aimeraient voir une concentration plus étroite sur l’IA qui est déjà largement utilisée, plutôt que sur des scénarios lointains d’intelligence surhumaine, qui pourraient ne jamais se matérialiser. »La discrimination de masse, le problème de la boîte noire, les violations de la protection des données, le chômage à grande échelle et les dommages environnementaux – tels sont les risques existentiels réels », a déclaré la professeure Sandra Wachter de l’Université d’Oxford, l’une des oratrices du sommet. «Nous devons nous concentrer sur ces problèmes dès maintenant et ne pas nous laisser distraire par des risques hypothétiques. C’est un mauvais service aux personnes qui souffrent déjà sous l’impact de l’IA.Quoi qu’il en soit, il existe un consensus croissant, parmi les entreprises technologiques et les gouvernements, sur le fait que la gouvernance est nécessaire – et rapidement. « Cela devrait être fait assez rapidement … dans un délai de six mois, un an », a déclaré le Dr Reinhard Scholl de l’Union internationale des télécommunications de l’ONU et co-fondateur du sommet AI for Good. « Les gens s’accordent à dire que si vous devez attendre quelques années, ce ne serait pas bon. »

Source link -57