Customize this title in frenchGoogle essaie d’être «sûr et responsable» avec l’IA, déclare l’ingénieur qui a été licencié après une revendication de sensibilité

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • L’ingénieur de Google licencié après avoir déclaré qu’un chatbot IA était sensible a déclaré qu’il était « responsable ».
  • Alphabet n’était pas « poussé par OpenAI », a déclaré Blake Lemoine à Futurism.
  • Il a déclaré que la société disposait encore de technologies « beaucoup plus avancées » qui n’avaient pas encore été publiées.

Un ingénieur de Google qui a été licencié après avoir déclaré que son chatbot IA avait gagné en sensibilité a déclaré que la société abordait l’intelligence artificielle de manière « sûre et responsable ».

Blake Lemoine, un ancien membre de l’équipe Responsible AI de Google, a déclaré à Futurism qu’il ne pensait pas que Google était « poussé par OpenAI » et que la société derrière ChatGPT n’avait pas affecté « la trajectoire de Google ».

« Je pense que Google fait les choses de manière sûre et responsable, et OpenAI vient de publier quelque chose », a-t-il déclaré.

Lemoine a également affirmé que Bard était en développement à la mi-2021, bien avant la sortie de ChatGPT fin 2022.

« Il ne s’appelait pas Bard à l’époque, mais ils y travaillaient et ils essayaient de déterminer s’il était sûr ou non de le publier », a-t-il déclaré. « Ils étaient sur le point de publier quelque chose à l’automne 2022. Il serait donc sorti à peu près au même moment que ChatGPT, ou juste avant. Ensuite, en partie à cause de certains des problèmes de sécurité que j’ai soulevés, ils ont supprimé il. »

L’ingénieur, qui a rejoint Google en 2015 selon son profil LinkedIn, a également déclaré à Futurism que l’entreprise dispose de « technologies beaucoup plus avancées » qu’elle n’a pas encore publiées.

Il a dit qu’un produit qui avait essentiellement les mêmes capacités que Bard aurait pu être lancé il y a deux ans, mais Google « s’est assuré qu’il n’invente pas trop souvent les choses, en s’assurant qu’il n’a pas de race ou de sexe des préjugés, ou des préjugés politiques, des choses comme ça. »

Lemoine a déclaré au Washington Post en juin dernier qu’il pensait que le modèle linguistique de Google pour les applications de dialogue (LaMDA) était devenu une entité sensible après avoir discuté avec lui. Il a également partagé une « interview » qu’il a réalisée avec LaMDA dans un article de Medium, qui, selon lui, était la preuve de ses pensées indépendantes.

Il a été licencié plus tard ce mois-là car Google a affirmé qu’il avait violé sa politique de confidentialité. Un représentant de l’entreprise a déclaré à Insider à l’époque que ses allégations de sensibilité n’étaient pas étayées et qu’il n’y avait aucune preuve suggérant qu’il avait conscience.

Google n’a pas immédiatement répondu à une demande de commentaire d’Insider, faite en dehors des heures normales de travail.

Source link -57