Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsDe puissants systèmes d’intelligence artificielle menacent la stabilité sociale et les entreprises d’IA doivent être tenues responsables des dommages causés par leurs produits, a averti un groupe d’experts de haut niveau, dont deux « parrains » de la technologie.L’intervention de mardi a été faite alors que des hommes politiques internationaux, des entreprises technologiques, des universitaires et des personnalités de la société civile se préparent à se réunir à Bletchley Park la semaine prochaine pour un sommet sur la sécurité de l’IA.Un co-auteur des propositions politiques de 23 experts a déclaré qu’il était « totalement imprudent » de rechercher des systèmes d’IA toujours plus puissants avant de comprendre comment les rendre sûrs. »Il est temps de s’intéresser sérieusement aux systèmes d’IA avancés », a déclaré Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley. « Ce ne sont pas des jouets. Augmenter leurs capacités avant de comprendre comment assurer leur sécurité est totalement imprudent.Il a ajouté : « Il y a plus de réglementations sur les sandwicheries que sur les entreprises d’IA. »Le document exhorte les gouvernements à adopter une série de politiques, notamment : Les gouvernements allouent un tiers de leur financement de recherche et développement en IA, et les entreprises un tiers de leurs ressources de R&D en IA, à une utilisation sûre et éthique des systèmes. Donner aux auditeurs indépendants l’accès aux laboratoires d’IA. Établir un système de licence pour construire des modèles de pointe. Les entreprises d’IA doivent adopter des mesures de sécurité spécifiques si des capacités dangereuses sont détectées dans leurs modèles. Rendre les entreprises technologiques responsables des dommages prévisibles et évitables causés par leurs systèmes d’IA.Parmi les autres co-auteurs du document figurent Geoffrey Hinton et Yoshua Bengio, deux des trois « parrains de l’IA », qui ont remporté le prix ACM Turing – l’équivalent informatique du prix Nobel – en 2018 pour leurs travaux sur l’IA.Tous deux font partie des 100 invités invités à assister au sommet. Hinton a démissionné de Google cette année pour lancer un avertissement sur ce qu’il a appelé le « risque existentiel » posé par l’intelligence numérique tandis que Bengio, professeur d’informatique à l’Université de Montréal, s’est joint à lui et à des milliers d’autres experts pour signer une lettre en mars. appelant à un moratoire sur les expériences géantes d’IA.Parmi les autres co-auteurs des propositions figurent l’auteur à succès de Sapiens, Yuval Noah Harari, Daniel Kahneman, lauréat du prix Nobel d’économie, et Sheila McIlraith, professeur d’IA à l’Université de Toronto, ainsi qu’un informaticien chinois primé. Andy Yao.ignorer la promotion de la newsletter passéeAlex Hern se penche chaque semaine sur la façon dont la technologie façonne nos vies », »newsletterId »: »tech-scape », »successDescription »: »La plongée hebdomadaire d’Alex Hern dans la façon dont la technologie façonne nos vies »} » config= » »renderingTarget »: »Web » »>Avis de confidentialité: Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre Politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterLes auteurs avertissent que les systèmes d’IA développés avec négligence menacent « d’amplifier l’injustice sociale, de porter atteinte à nos professions, d’éroder la stabilité sociale, de permettre des activités criminelles ou terroristes à grande échelle et d’affaiblir notre compréhension commune de la réalité qui est fondamentale pour la société ».Ils ont averti que les systèmes d’IA actuels montraient déjà des signes de capacités inquiétantes qui ouvrent la voie à l’émergence de systèmes autonomes capables de planifier, de poursuivre des objectifs et « d’agir dans le monde ». Le modèle d’IA GPT-4 qui alimente l’outil ChatGPT, développé par la société américaine OpenAI, a été capable de concevoir et d’exécuter des expériences de chimie, de naviguer sur le Web et d’utiliser des outils logiciels comprenant d’autres modèles d’IA, ont indiqué les experts.« Si nous construisons une IA autonome très avancée, nous risquons de créer des systèmes qui poursuivent de manière autonome des objectifs indésirables », ajoutant que « nous ne pourrons peut-être pas les contrôler ».D’autres recommandations politiques contenues dans le document comprennent : le signalement obligatoire des incidents où les modèles montrent un comportement alarmant ; mettre en place des mesures pour empêcher les modèles dangereux de se reproduire ; et donner aux régulateurs le pouvoir de suspendre le développement de modèles d’IA montrant des comportements dangereux.Le sommet sur la sécurité de la semaine prochaine se concentrera sur les menaces existentielles posées par l’IA, telles que l’aide au développement de nouvelles armes biologiques et l’évasion du contrôle humain. Le gouvernement britannique travaille avec d’autres participants sur une déclaration qui devrait souligner l’ampleur de la menace posée par l’IA frontalière – le terme désignant les systèmes avancés. Cependant, même si le sommet exposera les risques liés à l’IA et les mesures pour lutter contre cette menace, il ne devrait pas établir officiellement un organisme de réglementation mondial.Certains experts en IA affirment que les craintes concernant la menace existentielle pour les humains sont exagérées. L’autre co-lauréat du prix Turing 2018 aux côtés de Bengio et Hinton, Yann LeCun, aujourd’hui scientifique en chef de l’IA chez Meta de Mark Zuckerberg et qui participe également au sommet, a déclaré au Financial Times que l’idée que l’IA pourrait exterminer les humains était « absurde ».Néanmoins, les auteurs du document politique ont fait valoir que si des systèmes d’IA autonomes avancés émergeaient maintenant, le monde ne saurait pas comment les rendre sûrs ni comment les tester en matière de sécurité. « Même si nous le faisions, la plupart des pays ne disposent pas des institutions nécessaires pour prévenir les abus et faire respecter des pratiques sûres », ont-ils ajouté.
Source link -57