Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsUNParfois, c’était moins comme Succession que Tours fawlty, pas tant la tragédie shakespearienne que la farce de Laurel et Hardy. OpenAI est aujourd’hui l’entreprise technologique la plus en vogue grâce au succès de son produit le plus célèbre, le chatbot ChatGPT. Il était inévitable que le chaos entourant le limogeage, puis la réembauche de Sam Altman en tant que PDG, se propage dans les médias mondiaux la semaine dernière, accompagné d’étonnement et de perplexité dans une mesure égale.Pour certains, la farce témoignait de l’incompétence du conseil d’administration ; pour d’autres, à un choc de des egos monstrueux. Dans un sens plus profond, les troubles reflètent également de nombreuses contradictions au cœur de l’industrie technologique. La contradiction entre le mythe égoïste des entrepreneurs technologiques en tant que « perturbateurs » rebelles et leur contrôle d’une industrie monstre de plusieurs milliards de dollars à travers laquelle ils façonnent toutes nos vies. La tension existe également entre la vision de l’IA comme un mécanisme de transformation de la vie humaine et la crainte qu’elle puisse constituer une menace existentielle pour l’humanité.Beaucoup sont des « préparateurs », des survivants préparés à la possibilité d’un monde Mad Max.Peu d’organisations incarnent mieux ces contradictions qu’OpenAI. La galaxie des poids lourds de la Silicon Valley, dont Elon Musk et Peter Thiel, qui a fondé l’organisation en 2015, se considéraient à la fois comme des évangélistes de l’IA et des hérauts avertissant de la menace qu’elle représentait. « Avec l’intelligence artificielle, nous invoquons le démon », a déclaré Musk de manière sinistre.La combinaison d’une estime de soi débridée en tant qu’individus exceptionnels conquérant l’avenir et d’un profond pessimisme à l’égard des autres et de la société a rendu la crainte de l’apocalypse imminente presque obligatoire pour les titans de la technologie. Beaucoup sont des « préparateurs », des survivants préparés à la possibilité d’un Mad Max monde. « J’ai des armes, de l’or, de l’iodure de potassium, des antibiotiques, des piles, de l’eau, des masques à gaz des forces de défense israéliennes et un grand terrain à Big Sur vers lequel je peux voler », a déclaré Altman au New yorkais peu de temps après la création d’OpenAI. Les meilleurs entrepreneurs, affirme-t-il, « sont très paranoïaques, très en proie à des crises existentielles ». Y compris, forcément, sur l’IA.OpenAI a été créée en tant qu’association caritative à but non lucratif, dont le but était de développer l’intelligence artificielle générale, ou AGI, qui, en gros, est une machine capable d’accomplir ou de surpasser n’importe quelle tâche intellectuelle que les humains peuvent accomplir. Il le ferait toutefois d’une manière éthique, dans l’intérêt de « l’humanité dans son ensemble ».Puis, en 2019, l’organisme caritatif a créé une filiale à but lucratif pour aider à lever davantage d’investissements, récoltant finalement plus de 11 milliards de dollars (8,7 milliards de livres sterling) de Microsoft. L’organisation mère à but non lucratif a néanmoins conservé le plein contrôle, institutionnalisant la tension entre le désir de réaliser du profit et les inquiétudes catastrophiques concernant les produits qui rapportent du profit. Le succès extraordinaire de ChatGPT n’a fait qu’exacerber cette tension.Il y a deux ans, un groupe de chercheurs d’OpenAI est parti créer une nouvelle organisation, Anthropic, craignant le rythme de développement de l’IA dans leur ancienne entreprise. L’un d’eux a déclaré plus tard à un journaliste qu’« il y avait 20 % de chances qu’une IA malveillante détruise l’humanité au cours de la prochaine décennie ». Cette même crainte semble avoir motivé la tentative de défenestration d’Altman et le chaos des conseils d’administration de la semaine dernière.On peut s’interroger sur la psychologie qui consiste à continuer à créer des machines dont on pense qu’elles pourraient anéantir la vie humaine. L’ironie, cependant, c’est que même si la peur de l’IA est exagérée, la peur elle-même présente ses propres dangers. Les inquiétudes exagérées concernant l’IA proviennent d’une perception exagérée de ses capacités. ChatGPT est extrêmement efficace pour prédire quel devrait être le mot suivant dans une séquence ; si bon, en fait, qu’on imagine pouvoir converser avec lui comme avec un autre humain. Mais il ne peut pas saisir, comme le font les humains, le sens de ces mots et a une compréhension négligeable du monde réel. On reste loin du rêve d’une « intelligence générale artificielle ». « L’AGI n’arrivera pas », a déclaré Grady Booch, scientifique en chef du génie logiciel chez IBM. suggérémême « du vivant des enfants de vos enfants ».Pour ceux de la Silicon Valley qui ne sont pas d’accord et croient que l’AGI est imminente, les humains doivent être protégés par un « alignement » – en garantissant que l’IA est « alignée sur les valeurs humaines et suit l’intention humaine ». Cela peut sembler une manière rationnelle de compenser les dommages que l’IA pourrait causer. Jusqu’à ce que vous commenciez à vous demander ce que sont exactement les « valeurs humaines », qui les définit et que se passe-t-il lorsqu’elles entrent en conflit ?Les valeurs sociales sont toujours contestées, et particulièrement aujourd’hui, à une époque de désaffection généralisée, souvent motivée par l’effondrement des normes consensuelles. Notre relation à la technologie est elle-même sujette à débat. Pour certains, la nécessité de réduire la haine ou de protéger les gens contre les préjudices en ligne l’emporte sur tout droit à la liberté d’expression ou à la vie privée. C’est le sentiment qui sous-tend la nouvelle loi britannique sur la sécurité en ligne. C’est aussi pourquoi beaucoup s’inquiètent des conséquences de la loi.Reste ensuite la question de la désinformation. Rares sont ceux qui nieraient que la désinformation constitue un problème et qu’elle le deviendra encore davantage, soulevant des questions difficiles sur la démocratie et la confiance. La question de savoir comment y faire face reste cependant très controversée, d’autant plus que de nombreuses tentatives de réglementation de la désinformation aboutissent à accorder des pouvoirs encore plus grands aux entreprises technologiques pour contrôler le public.La raison pour laquelle les algorithmes sont sujets à des biais, en particulier à l’encontre des minorités, est qu’ils sont alignés sur les valeurs humaines.Parallèlement, un autre sujet de préoccupation, le biais algorithmique, met en évidence les faiblesses des arguments en faveur de « l’alignement ». La raison pour laquelle les algorithmes sont sujets à des préjugés, notamment à l’encontre des minorités, est précisément parce qu’ils sont alignés sur les valeurs humaines. Les programmes d’IA sont formés sur des données du monde humain, imprégné de pratiques et d’idées discriminatoires. Ceux-ci sont également intégrés aux logiciels d’IA, que ce soit dans le système de justice pénale ou dans les soins de santé, la reconnaissance faciale ou le recrutement.Le problème auquel nous sommes confrontés n’est pas que les machines puissent un jour exercer un pouvoir sur les humains. Il s’agit là d’une spéculation injustifiée au vu des développements actuels. C’est plutôt que nous vivons déjà dans des sociétés dans lesquelles le pouvoir est exercé par quelques-uns au détriment de la majorité, et que la technologie offre un moyen de consolider ce pouvoir. Pour ceux qui détiennent le pouvoir social, politique et économique, il est logique de considérer les problèmes comme technologiques plutôt que sociaux et comme se situant dans le futur plutôt que dans le présent.Il existe peu d’outils utiles aux humains qui ne puissent également causer du tort. Mais ils causent rarement du mal par eux-mêmes ; ils le font plutôt à travers la manière dont ils sont exploités par les humains, en particulier ceux qui détiennent le pouvoir. C’est cela, et non les craintes fantaisistes d’extinction, qui devrait être le point de départ de toute discussion sur l’IA. Kenan Malik est chroniqueur à l’Observer
Source link -57