Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsWEst-ce que cela nous détruira ou nous sauvera-t-il ? Un débat séculaire entre optimistes et pessimistes technologiques qui s’est déroulé au fil des siècles alors que la marche constante du progrès humain donne naissance à de nouvelles technologies, de la roue à la presse à imprimer en passant par le smartphone. Aujourd’hui, c’est une conversation menée avec une urgence croissante sur l’intelligence artificielle.Les optimistes soulignent que l’histoire a prouvé à maintes reprises que les prophètes de malheur avaient tort. Prenez l’imprimerie : l’Église catholique du XVe siècle craignait que la diffusion de l’information ne sape l’autorité et la stabilité à travers l’Europe ; certains intellectuels craignaient que l’information ne soit dangereuse entre les mains de la plèbe ; les corporations artisanales s’opposaient à la démocratisation de leurs compétences via des manuels. En fin de compte, l’imprimerie a effectivement permis des méfaits – la publication d’un manuel de chasse aux sorcières en 1486 a ouvert la voie à des siècles de persécution des femmes soupçonnées d’être sorcières – mais ils ont été complètement éclipsés par ses bienfaits en matière d’illumination. Le luddite des temps modernes n’est pas un manteau particulièrement attrayant, et lors du premier sommet mondial sur la sécurité de l’IA, organisé cette semaine au Royaume-Uni, l’industrie exercera une forte pression sur les politiciens présents pour qu’ils abandonnent le catastrophisme et rejoignent le gang cool.Les gains pourraient être incroyables. L’IA pourrait apporter des réponses à certains des défis existentiels auxquels l’humanité est confrontée : accélérer considérablement la découverte de nouveaux traitements pour des maladies comme la démence et le cancer ; créer de nouveaux antibiotiques face à la résistance microbienne ; concevoir des technologies qui réduisent le compromis entre consommation et carbone. Au niveau individuel, l’éminent expert et universitaire en IA Stuart Russell affirme que l’IA pourrait fournir à chacun de nous l’équivalent d’un « avocat, comptable et conseiller politique de haut niveau » disponible à tout moment ; et aux enfants du monde entier grâce à des cours particuliers de haute qualité. Chacun pouvait suivre une thérapie quand il le souhaitait.Mais ces énormes avantages s’accompagnent de risques énormes. Reconnaître que l’IA pourrait elle-même constituer une menace existentielle n’est pas du domaine de la science-fiction. Certains des plus grands technologues et passionnés de l’IA au monde ont eux-mêmes rompu les rangs pour réclamer davantage de réglementation.La technologie n’a pas réduit le besoin de main-d’œuvre humaine, mais elle a concentré le pouvoir économique et alimenté les inégalités. Notre politique est-elle prête ?Certaines caractéristiques de l’IA feront pâlir en comparaison les révolutions technologiques que nous avons connues jusqu’à présent. Le premier est son ampleur : l’IA a laissé subsister la loi de Moore, qui prévoyait que la puissance de calcul doublerait tous les deux ans. L’IA la plus avancée d’aujourd’hui est 5 milliards de fois plus puissante qu’elle ne l’était il y a dix ans. Alors oui, l’IA augmentera la productivité et changera fondamentalement la nature du travail humain, comme ses prédécesseurs, mais à un rythme jamais vu auparavant. Même si la technologie n’a jamais réduit le besoin de main-d’œuvre humaine – de nouveaux emplois ont été créés alors que d’autres ont cessé d’exister – elle a concentré le pouvoir économique et alimenté les inégalités. Nos systèmes politiques sont-ils prêts pour cela ?Au-delà de l’échelle, il y a le manque potentiel de contrôle humain. De nombreux modèles d’IA fonctionnent comme une boîte noire, dont le fonctionnement est invisible pour l’utilisateur. Des modèles d’IA autonomes sont en cours de développement et peuvent poursuivre des objectifs de haut niveau ; mais les développeurs peuvent-ils prédire comment ils se développeront une fois libérés sur le monde, et qu’est-ce qui empêchera l’IA de poursuivre des objectifs qui ne correspondent pas aux intérêts de la société ? Avec les entreprises de médias sociaux, nous avons vu ce qui se produit lorsque leurs motivations de profit les incitent à créer du tort en diffusant des contenus polarisants et en désinformation ; cela s’est avéré assez difficile à réglementer, même s’il s’agit d’un phénomène facilement compréhensible et prévisible.Le défi du contrôle signifie que l’IA pourrait fournir une puissance énorme pour dévaster des intérêts malveillants, ou même évoluer pour en devenir elle-même un. Les grands modèles linguistiques existants comme Chat GPT produisent déjà des désinformations difficiles à repérer, accompagnées de fausses citations ; Entre de mauvaises mains, ils pourraient nuire à notre capacité à distinguer la vérité de la propagande. Il existe de sombres possibilités pour les chatbots IA de développer des relations de contrôle coercitif avec les humains et de les manipuler ou de les radicaliser pour qu’ils fassent des choses terribles ; l’homme de 21 ans condamné à neuf ans de prison ce mois-ci pour s’être introduit par effraction dans le château de Windsor avec une arbalète en 2021 était en conversation avec un « ami » d’IA qui l’a encouragé à mener l’attaque. Plus tôt cette année, un Belge souffrant de problèmes de santé mentale qui s’est suicidé a été incité à le faire par un chatbot. Cela pourrait aider les criminels à lancer des cyberattaques dévastatrices et les terroristes à créer des armes biologiques.Mais peu de temps, de ressources et d’énergie ont été consacrés à la sécurité de l’IA. Russell souligne que les sandwicheries sont soumises à plus de réglementations que les entreprises d’IA et que lorsqu’il s’agit d’autres technologies qui présentent de grands risques pour la vie humaine, comme l’aviation ou l’énergie nucléaire, nous ne laissons pas les entreprises les exploiter à moins qu’elles ne respectent un minimum de sécurité. normes à l’avance. Il soutient que le développement de l’IA doit être soumis à une licence de la même manière : si une entreprise ne peut pas démontrer que sa technologie est sûre, elle ne devrait pas être autorisée à la diffuser.Ce type de réglementation présente des défis colossaux. Comment définissons-nous le préjudice ? Que signifie même rendre l’IA « sûre » ? La réponse est claire avec l’aviation ou l’énergie nucléaire ; moins avec l’IA. L’absence de définition convenue a gâché les tentatives de réglementation des médias sociaux ; et même s’il y aura un consensus mondial sur certaines choses, il y aura des désaccords fondés sur les valeurs sur d’autres ; La Chine a introduit cette année des réglementations strictes pour l’IA de type ChatGPT, qui obligent les entreprises à respecter les « valeurs socialistes fondamentales ».Ces différences sont importantes car, comme l’ont souligné les experts, la réglementation de l’IA est probablement aussi efficace que le maillon le plus faible à l’échelle mondiale. Pensez au défi de coordination qu’implique la réponse mondiale à la crise climatique et multipliez-le plusieurs fois ; l’action (l’absence d’) action d’un seul pays pourrait avoir des impacts bien plus importants. Il est difficile d’imaginer le niveau d’innovation en matière de gouvernance mondiale nécessaire pour superviser cela.Mais l’ampleur du défi ne doit pas décourager les dirigeants politiques. Ils doivent résister aux inévitables appels des grandes technologies à se détendre et à croire que tout se passera bien. Le meilleur des cas est que dans 100 ans, les étudiants en histoire considéreront les avertissements apocalyptiques comme du luddisme du 21e siècle. Mais je me demande s’ils considéreront plutôt cette période comme le point idéal avant que les inconvénients de la technologie ne commencent à éclipser ses avantages existentiels. Sonia Sodha est chroniqueuse à l’Observer
Source link -57