Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsjeEn novembre 2022, OpenAI a lancé ChatGPT, un outil d’intelligence artificielle destiné aux consommateurs qui pourrait engager une conversation avec les utilisateurs, répondre à des questions et générer n’importe quoi, des poèmes au code informatique en passant par des conseils de santé. La technologie initiale n’était pas parfaite – elle « hallucinait parfois », produisant des informations convaincantes mais inexactes – mais son potentiel a suscité une énorme attention.Un an plus tard, la popularité de ChatGPT s’est poursuivie, avec 100 millions de personnes l’utilisant chaque semaine et plus de 92 % des entreprises Fortune 500 et plusieurs entreprises concurrentes cherchant à tirer profit ou à améliorer la technologie. Mais ce n’est pas pour cela que le créateur de ChatGPT, OpenAI, a fait l’actualité cette semaine. Au lieu de cela, OpenAI a été au centre d’un débat philosophique féroce sur ce que signifie développer l’intelligence artificielle générale au profit de l’humanité.Pour comprendre le débat actuel et ses enjeux, il faut remonter à la création d’OpenAI en décembre 2015. Comme le souligne le site Internet d’OpenAI, l’organisation a été fondée en tant qu’organisation à but non lucratif « dans le but de construire une intelligence artificielle générale sûre et bénéfique au profit de l’humanité ». . L’entreprise ne voyait aucune voie à suivre dans le secteur public et a choisi de suivre les traces de SpaceX et de rechercher des talents et des financements du secteur privé.Mais à mesure que la nature capitalistique de la recherche et du développement en IA est devenue évidente – la puissance de calcul et le talent ne sont pas bon marché – OpenAI est devenue une société à responsabilité limitée. L’idée était de bénéficier de ressources à but lucratif tout en restant fidèle aux idéaux fondateurs d’OpenAI, avec un conseil d’administration à but non lucratif qui contrôlait totalement la filiale à but lucratif et plafonnait les bénéfices.Au début de cette transition, une partie de la philosophie d’OpenAI a semblé changer. Entre autres choses, la société a conclu que le fait d’être open source pour que le monde entier puisse le voir et l’exploiter n’était peut-être pas dans le meilleur intérêt de l’humanité. La prémisse était plausible. Un critique a affirmé qu’OpenAI est passé de « l’open source à « ouvrez votre portefeuille » » – devenant une entreprise à but lucratif qui s’est écartée de ses principes fondateurs – mais OpenAI avait raison de se méfier de la manière dont des acteurs malveillants pourraient utiliser ses outils à des fins de désinformation. le plagiat et les robots.Mes propres recherches et mes premières collaborations universitaires avec OpenAI ont montré que la technologie, même dans ses premières itérations, pouvait être utilisée à mauvais escient dans des campagnes de désinformation ou pour perturber la démocratie.Sam Altman, alors PDG d’OpenAI, était lui-même transparent sur les risques de la technologie. En mai 2023, lors de son témoignage au Capitole, il a déclaré : « Je pense que si cette technologie tourne mal, elle peut tourner très mal. Et nous voulons en parler [and] travailler avec le gouvernement pour empêcher que cela ne se produise. Il a dit toutes les bonnes choses et semblait le penser. Il a pris le temps de rencontrer des journalistes et des dirigeants mondiaux pour entendre leurs préoccupations.Entre mai et novembre 2023, la valorisation d’OpenAI a presque triplé, passant d’environ 29 milliards de dollars à 80 milliards de dollars. Les investissements ont afflué vers OpenAI, avec des injections considérables de Microsoft et de concurrents tels qu’Anthropic. Il s’agissait désormais d’une véritable course aux armements dans une économie où le vainqueur rafle tout.Les récents développements de la saga sont quelque peu flous, mais il semble que le conseil d’administration de l’organisation à but non lucratif n’ait plus confiance dans la capacité de l’entreprise à réaliser les deux rapidement. et développement sûr de l’IA – ou du moins que le premier pourrait compromettre le second.Vendredi, le conseil d’administration d’OpenAI a publié une déclaration nébuleuse selon laquelle Sam Altman n’avait pas été « toujours franc dans ses communications » et que le conseil d’administration n’avait plus confiance en son leadership. Une vague de négociations a suivi au cours du week-end, avec la décision la plus remarquable et la plus géniale du PDG de Microsoft, Satya Nadella, qui a immédiatement débauché Altman et les membres de son équipe d’ingénierie senior.Ces expériences mettent en évidence les défis que représente le fait d’essayer d’avancer lentement avec une technologie qui évolue rapidement. Les critiques du nouveau PDG d’OpenAI, Emmett Shear, le considèrent comme un « condamné » de l’IA qui rejette l’optimisme de la Silicon Valley quant au potentiel positif de l’IA. En septembre, Shear a écrit que « si nous sommes à une vitesse de 10 en ce moment, une pause réduit à 0. Je pense que nous devrions plutôt viser 1-2 ». Il a également félicité les entreprises qui « respectent les limites établies en matière de sécurité ».Il aura cependant du mal à atteindre cet objectif, au vu des événements des derniers jours. Plus de 700 employés d’OpenAI ont menacé de démissionner si le conseil d’administration ne démissionnait pas, affirmant que « nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et d’attention à notre mission et à nos employés ». Ces individus ont même proposé de rejoindre Microsoft, une menace qui aurait semblé absurde, voire hérétique, avant la semaine dernière.Les employés d’OpenAI ont voté avec leurs pieds quant à leur position quant à la nécessité d’agir rapidement plutôt que de procéder avec plus de prudence. Microsoft mettra tout le poids de ses ressources derrière Altman et d’autres anciens employés d’OpenAI. Mais certains iront probablement ailleurs dans la « frénésie d’alimentation » des talents, remaniant fondamentalement le domaine du développement de l’IA.Le défi politique en matière d’IA deviendra de plus en plus difficile. Microsoft possède une expérience considérable en matière de droit et de politique, ayant parcouru un long chemin depuis les années 1990, lorsque Bill Gates s’est rendu à Washington et a tourné en dérision l’expertise technique des décideurs politiques. En outre, la diffusion potentielle des talents et de l’expertise signifiera que davantage d’entreprises se disputeront l’objectif insaisissable de l’intelligence artificielle générale, ce qui rendra son suivi plus difficile. Dans ce contexte, les partisans d’un ralentissement de cet objectif devront trouver des arguments plus convaincants pour contrer les ressources, l’élan et la vision de ceux qui mènent la charge.
Source link -57