Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsSe concentrer sur des scénarios apocalyptiques en matière d’intelligence artificielle est une diversion qui minimise les risques immédiats tels que la génération à grande échelle de désinformation, selon un haut responsable de l’industrie participant au sommet sur la sécurité de l’IA de cette semaine.Aidan Gomez, co-auteur d’un document de recherche qui a contribué à créer la technologie derrière les chatbots, a déclaré que les risques à long terme tels que les menaces existentielles pour l’humanité dues à l’IA devraient être « étudiés et poursuivis », mais qu’ils pourraient détourner les politiciens de la gestion du potentiel immédiat. nuit.« Je pense qu’en termes de risque existentiel et de politique publique, ce n’est pas une conversation productive à avoir », a-t-il déclaré. « En ce qui concerne la politique publique et les domaines dans lesquels nous devrions concentrer l’attention du secteur public – ou essayer d’atténuer les risques pour la population civile – je pense que cela constitue une distraction, loin des risques qui sont beaucoup plus tangibles et immédiats. »Gomez participe au sommet de deux jours, qui débute mercredi, en tant que directeur général de Cohere, une société nord-américaine qui fabrique des outils d’IA pour les entreprises, notamment des chatbots. En 2017, à l’âge de 20 ans, Gomez faisait partie d’une équipe de chercheurs de Google qui a créé le Transformer, une technologie clé derrière les grands modèles de langage qui alimentent les outils d’IA tels que les chatbots.Gomez a déclaré que l’IA – le terme désignant les systèmes informatiques capables d’effectuer des tâches généralement associées à des êtres intelligents – était déjà largement utilisée et que ce sont ces applications sur lesquelles le sommet devrait se concentrer. Les chatbots tels que ChatGPT et les générateurs d’images tels que Midjourney ont stupéfié le public par leur capacité à produire du texte et des images plausibles à partir de simples invites de texte.« Cette technologie est déjà présente dans un milliard de produits utilisateurs, comme chez Google et d’autres. Cela présente une multitude de nouveaux risques à discuter, dont aucun n’est existentiel, dont aucun n’est un scénario apocalyptique », a déclaré Gomez. « Nous devrions nous concentrer directement sur les éléments qui sont sur le point d’avoir un impact sur les gens ou qui ont un impact actif sur les gens, par opposition peut-être aux discussions plus académiques et théoriques sur l’avenir à long terme. »Gomez a déclaré que la désinformation – la diffusion d’informations trompeuses ou incorrectes en ligne – était sa principale préoccupation. « La désinformation est une priorité pour moi », a-t-il déclaré. « Ces [AI] les modèles peuvent créer des médias extrêmement convaincants, très convaincants, pratiquement impossibles à distinguer du texte, des images ou des médias créés par l’homme. C’est donc un problème auquel nous devons nous attaquer de toute urgence. Nous devons déterminer comment nous allons donner au public la possibilité de faire la distinction entre ces différents types de médias.Exemples d’œuvres d’art récemment générées à l’aide d’outils d’IA et publiées sur les réseaux sociaux. Composite : IA via les utilisateurs de Twitter Pop Base/Eliot Higgins/Cam HarlessLa journée d’ouverture du sommet comportera des discussions sur une série de questions liées à l’IA, notamment des préoccupations liées à la désinformation telles que la perturbation des élections et l’érosion de la confiance sociale. La deuxième journée, qui réunira un groupe plus restreint de pays, d’experts et de responsables technologiques réunis par Rishi Sunak, discutera des mesures concrètes qui peuvent être prises pour faire face aux risques liés à l’IA. Kamala Harris, la vice-présidente américaine, sera parmi les participants.Gomez, qui a qualifié le sommet de « vraiment important », a déclaré qu’il était déjà « très plausible » qu’une armée de robots – des logiciels qui effectuent des tâches répétitives, comme publier sur les réseaux sociaux – puissent diffuser des informations erronées générées par l’IA. « Si vous pouvez faire cela, cela constitue une menace réelle pour la démocratie et le débat public », a-t-il déclaré.Dans une série de documents décrivant les risques de l’IA la semaine dernière, qui incluaient la désinformation générée par l’IA et les perturbations du marché du travail, le gouvernement a déclaré qu’il ne pouvait pas exclure que le développement de l’IA atteigne un point où les systèmes menaceraient l’humanité.Un document sur les risques publié la semaine dernière déclarait : « Compte tenu de l’incertitude importante dans la prévision des développements de l’IA, il n’y a pas suffisamment de preuves pour exclure que les systèmes Frontier AI hautement performants, s’ils sont mal alignés ou insuffisamment contrôlés, pourraient constituer une menace existentielle. »Le document ajoute que de nombreux experts considèrent que ce risque est très faible et qu’il impliquerait la réalisation d’un certain nombre de scénarios, notamment un système avancé prenant le contrôle des armes ou des marchés financiers. Les inquiétudes concernant une menace existentielle de l’IA se concentrent sur la perspective d’une intelligence générale dite artificielle – un terme désignant un système d’IA capable d’effectuer de multiples tâches à un niveau d’intelligence humain ou supérieur à celui de l’humain – qui pourrait en théorie se répliquer, échapper à l’intelligence artificielle. contrôle humain et prendre des décisions qui vont à l’encontre des intérêts humains.Ces craintes ont conduit à la publication d’une lettre ouverte en mars, signée par plus de 30 000 professionnels et experts de la technologie, dont Elon Musk, appelant à une pause de six mois dans les expériences géantes d’IA.Deux des trois « parrains » modernes de l’IA, Geoffrey Hinton et Yoshua Bengio, ont signé une nouvelle déclaration en mai avertissant que la prévention du risque d’extinction dû à l’IA devrait être traitée avec autant de sérieux que la menace des pandémies et de la guerre nucléaire. Cependant, Yann LeCun, leur collègue « parrain » et co-lauréat du prix ACM Turing – considéré comme le prix Nobel de l’informatique – a qualifié de « absurdes » les craintes selon lesquelles l’IA pourrait anéantir l’humanité.LeCun, le scientifique en chef de l’IA chez Meta, la société mère de Facebook, a déclaré au Temps Financier ce mois-ci, un certain nombre de « percées conceptuelles » seraient nécessaires avant que l’IA puisse atteindre une intelligence de niveau humain – un point où un système pourrait échapper au contrôle humain. LeCun a ajouté : « L’intelligence n’a rien à voir avec le désir de dominer. Ce n’est même pas vrai pour les humains.
Source link -57