Customize this title in frenchSam Altman d’OpenAI qualifie la saga de licenciement de « ridicule » et a un ton plus doux sur les dangers de l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Le PDG d’OpenAI a parlé de la saga des licenciements de l’année dernière et a répondu aux préoccupations concernant l’avenir de l’IA à Davos.

PUBLICITÉ

Sam Altman, PDG d’OpenAI a déclaré que son licenciement surprise puis sa réembauche de la start-up en novembre de l’année dernière étaient « ridicules » et qu’« à un moment donné, il faut rire ».

Altman a parlé de la période tumultueuse jeudi lors du Forum économique mondial de Davos, en Suisse, lors d’un discours lors d’un panel.

OpenAI a été catapulté sur la scène avec son chatbot génératif ChatGPT l’année dernière et l’entreprise a connu une croissance exponentielle avec des entreprises telles que Microsoft investissant 10 milliards de dollars (9 milliards d’euros) dans l’entreprise.

Mais l’entreprise a été plongée dans la tourmente en novembre après que le conseil d’administration a déclaré qu’il avait perdu confiance en Altman et l’avait renvoyé de l’entreprise.

Le conseil d’administration a déclaré qu’« il n’a pas été toujours franc dans ses communications avec le conseil, ce qui a entravé sa capacité à exercer ses responsabilités ».

Par la suite, la quasi-totalité du personnel de OpenAI a menacé de démissionner s’il n’était pas réintégré.

« Lorsque le premier conseil d’administration m’a demandé de revenir, ma réponse immédiate a été non, parce que j’étais énervé », a-t-il déclaré au public de Davos.

« Mais je savais aussi, et j’ai pu le constater en observant l’équipe de direction, que l’entreprise se porterait bien sans moi », a-t-il ajouté.

Faut-il s’inquiéter d’AGI ?

Parlant des leçons tirées de la saga, Altman a prévenu : « À mesure que le monde se rapproche de l’AGI (Intelligence Générale Artificielle qui pourrait apprendre des tâches que les humains peuvent accomplir), le stress va augmenter ».

« Une chose que j’ai observée pendant un moment, c’est que le caractère de chacun reçoit plus de 10 points fous ».

Il a déclaré que les entreprises devraient consacrer plus de temps à réfléchir à « comment toutes les choses étranges peuvent mal tourner ».

Altman avait déjà mis en garde contre le « préjudice grave » de l’AGI en février 2023 et avait écrit « qu’un AGI superintelligent mal aligné pourrait causer un préjudice grave au monde ; un régime autocratique doté d’un leadership décisif en matière de superintelligence pourrait le faire également ».

Cependant, il a adouci son ton à Davos cette année et, lors d’une conversation avec le PDG de Microsoft, Satya Nadella, a déclaré mardi que l’AGI serait une « chose étonnamment continue », où « chaque année, nous publions un nouveau modèle ». [and] c’est bien mieux que l’année précédente ».

Dans une conversation organisée par Bloomberg lors de la conférence, il a également déclaré que l’AGI pourrait être développée dans un « avenir raisonnablement proche », mais « changera beaucoup moins le monde que nous ne le pensons tous et elle changera beaucoup moins les emplois que nous ne le pensons tous ». « .

Pas inquiet du procès du New York Times

Altman s’est également déclaré jeudi « surpris » que le New York Times ait intenté une action en justice contre OpenAI et Microsoft en décembre, accusant les entreprises de violation du droit d’auteur pour avoir utilisé ses articles pour entraîner ses modèles d’IA.

« Nous avons été aussi surpris que quiconque d’apprendre qu’ils nous poursuivaient en justice dans le New York Times. C’était une chose assez étrange », a déclaré Altman à la foule de Davos, ajoutant qu’il n’avait pas besoin des données de l’éditeur pour entraîner ses modèles d’IA. .

En décembre, OpenAI a annoncé le contenu d’actualités de Publications d’Axel Springerqui incluent Politico et Business Insider, seraient utilisés pour former les systèmes OpenAI de l’entreprise.

Source link -57