Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
jeEn 1914, à la veille de la Première Guerre mondiale, HG Wells publia un roman sur les possibilités d’une conflagration encore plus grande. Le monde libéré imagine, 30 ans avant le projet Manhattan, la création d’armes atomiques permettant à « un homme [to] transporter dans un sac à main une quantité d’énergie latente suffisante pour détruire la moitié d’une ville ». Une guerre mondiale éclate, conduisant à une apocalypse atomique. Il faut « l’établissement d’un gouvernement mondial » pour instaurer la paix.
Ce qui préoccupait Wells n’était pas seulement les périls d’une nouvelle technologie, mais aussi les dangers de la démocratie. Le gouvernement mondial de Wells n’a pas été créé par une volonté démocratique mais imposé comme une dictature bienveillante. « Les gouvernés manifesteront leur consentement par le silence », remarque d’un ton menaçant le roi Egbert d’Angleterre. Pour Wells, « l’homme ordinaire » était « un imbécile violent dans les affaires sociales et publiques ». Seule une élite instruite et à l’esprit scientifique pourrait « sauver la démocratie d’elle-même ».
Un siècle plus tard, une autre technologie suscite un sentiment de crainte et de peur similaire : l’intelligence artificielle. Des conseils d’administration de la Silicon Valley aux coulisses de Davos, les dirigeants politiques, les magnats de la technologie et les universitaires exultent des immenses avantages que l’IA apportera, mais craignent qu’elle puisse également annoncer la disparition de l’humanité alors que des machines superintelligentes viendront gouverner le monde. Et comme il y a un siècle, les questions de démocratie et de contrôle social sont au cœur du débat.
En 2015, le journaliste Steven Levy a interviewé Elon Musk et Sam Altman, deux fondateurs d’OpenAI, l’entreprise technologique qui a fait irruption dans la conscience publique il y a deux ans avec la sortie de ChatGPT, le chatbot apparemment humain. Une galaxie de poids lourds de la Silicon Valley, craignant les conséquences potentielles de l’IA, a créé l’entreprise en tant qu’association caritative à but non lucratif dans le but de développer une technologie de manière éthique au profit de « l’humanité dans son ensemble ».
Levy a interrogé Musk et Altman sur l’avenir de l’IA. « Il y a deux écoles de pensée », songea Musk. « Voulez-vous beaucoup d’IA ou un petit nombre d’IA ? Nous pensons que beaucoup, c’est probablement une bonne chose.
« Si je suis le Dr Evil et que je l’utilise, ne me donnerez-vous pas du pouvoir ? » » demanda Lévy. Le Dr Evil aura plus de chances d’être habilité, a répondu Altman, si seulement quelques personnes contrôlent la technologie : « Alors nous sommes vraiment dans une mauvaise passe. »
En réalité, ce « mauvais endroit » est construit par les entreprises technologiques elles-mêmes. Musk, qui a quitté le conseil d’administration d’OpenAI il y a six ans pour développer ses propres projets d’IA, poursuit désormais son ancienne entreprise pour rupture de contrat pour avoir fait passer les profits avant le bien public et pour avoir omis de développer l’IA « pour le bénéfice de l’humanité ».
En 2019, OpenAI a créé une filiale à but lucratif pour lever des fonds auprès d’investisseurs, notamment Microsoft. Lors de la sortie de ChatGPT en 2022, le fonctionnement interne du modèle est resté caché. Il était nécessaire d’être moins ouvert, a affirmé Ilya Sutskever, un autre des fondateurs d’OpenAI et à l’époque scientifique en chef de l’entreprise, en réponse aux critiques, pour empêcher ceux qui ont des intentions malveillantes de l’utiliser « pour causer beaucoup de mal ». La peur de la technologie est devenue un prétexte pour créer une protection contre tout examen minutieux.
En réponse au procès intenté par Musk, OpenAI a publié la semaine dernière une série de courriels entre Musk et d’autres membres du conseil d’administration. Ceux-ci montrent clairement que dès le début, tous les membres du conseil d’administration ont convenu que « OpenAI » ne pouvait pas réellement être ouvert.
À mesure que l’IA se développe, a écrit Sutskever à Musk, « il sera logique de commencer à être moins ouvert. L’Open in openAI signifie que chacun devrait bénéficier des fruits de l’IA après son [sic] construit, mais c’est tout à fait acceptable de ne pas partager la science. « Ouais », a répondu Musk. Quoi qu’en dise son procès, Musk n’est pas plus ouvert à l’ouverture que les autres magnats de la technologie. La contestation juridique d’OpenAI relève davantage d’une lutte de pouvoir au sein de la Silicon Valley que d’une tentative de responsabilisation.
Wells a écrit Le monde libéré à une époque de grands troubles politiques où beaucoup remettaient en question la sagesse d’étendre le droit de vote à la classe ouvrière.
« Était-il souhaitable, était-il même sûr de confier [the masses] », s’est demandé Fabian Beatrice Webb, avec « les urnes, la formation et le contrôle du gouvernement de la Grande-Bretagne avec ses énormes richesses et ses domaines lointains? » C’était aussi la question au cœur du roman de Wells : à qui pouvait-on confier l’avenir ?
Un siècle plus tard, nous vivons à nouveau un débat acharné sur les vertus de la démocratie. Pour certains, les troubles politiques de ces dernières années sont le produit d’un excès de démocratie, du fait de permettre à des personnes irrationnelles et sans instruction de prendre des décisions importantes. « Il est injuste de confier à des niais non qualifiés la responsabilité de prendre des décisions historiques d’une grande complexité et sophistication », comme l’a dit Richard Dawkins après le référendum sur le Brexit, un sentiment avec lequel Wells aurait été d’accord.
Pour d’autres, c’est précisément ce mépris envers les gens ordinaires qui a contribué à créer un déficit démocratique dans lequel de larges pans de la population se sentent privés de leur mot à dire sur la façon dont la société est gérée.
C’est un mépris qui alimente également les discussions sur la technologie. Un péché Le monde libéré, le débat sur l’IA se concentre non seulement sur des questions liées à la technologie, mais également sur l’ouverture et le contrôle. Malgré l’alarmisme, nous sommes loin des machines « superintelligentes ». Les modèles d’IA d’aujourd’hui, tels que ChatGPT ou Claude 3, publiés la semaine dernière par une autre société d’IA, Anthropic, sont si efficaces pour prédire quel devrait être le prochain mot d’une séquence qu’ils peuvent nous tromper en nous faisant croire qu’ils peuvent contenir un humain. conversation. Cependant, ils ne sont pas intelligents au sens humain du terme, ont une compréhension négligeable du monde réel et ne sont pas sur le point d’anéantir l’humanité.
Les problèmes posés par l’IA ne sont pas existentiels, mais sociaux. Des biais algorithmiques à la surveillance de masse, de la désinformation et de la censure au vol de droits d’auteur, notre préoccupation ne devrait pas être que les machines puissent un jour exercer un pouvoir sur les humains, mais plutôt qu’elles fonctionnent déjà de manière à renforcer les inégalités et les injustices, en fournissant des outils grâce auxquels ceux qui sont au pouvoir peuvent consolider leur autorité.
C’est pourquoi ce que nous pourrions appeler la « manœuvre d’Egbert » – l’insistance sur le fait que certaines technologies sont si dangereuses qu’elles doivent échapper à la pression démocratique et être contrôlées par une poignée de privilégiés – est si menaçante. Le problème ne vient pas seulement du Dr Evil, mais aussi de ceux qui utilisent la peur du Dr Evil pour se protéger des examens minutieux.