Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Certains employés de Google ont sonné l’alarme concernant le développement de l’IA de l’entreprise, selon le NYT.
- Deux travailleurs ont tenté d’empêcher l’entreprise de publier son chatbot IA, Bard, a rapporté la publication.
- Le couple craignait que le chatbot ne génère des déclarations dangereuses ou fausses, a-t-il ajouté.
Certains employés de Google ont tiré la sonnette d’alarme sur le développement de l’intelligence artificielle de l’entreprise, a rapporté le New York Times.
Selon le rapport du Times, deux employés de Google chargés d’examiner les produits d’IA ont tenté d’empêcher l’entreprise de publier son chatbot d’IA, Bard. La paire craignait que le chatbot ne génère des déclarations dangereuses ou fausses, selon le rapport.
En mars, les deux examinateurs travaillant sous la direction de Jen Gennai, directrice du groupe d’innovation responsable de Google, ont recommandé de bloquer la publication de Bard dans une évaluation des risques, ont déclaré à la publication deux personnes familières avec le processus. Les employés ont estimé que malgré les garanties, le chatbot n’était pas prêt, a-t-il ajouté.
Cependant, le New York Times a rapporté que les personnes à qui il avait parlé leur avaient dit que Gennai avait modifié le document pour supprimer la recommandation et minimiser les risques du chatbot.
Gennai a déclaré à Insider qu’elle avait « ajouté à la liste des risques potentiels des examinateurs et transmis l’analyse résultante » à un comité de responsables de produits, de recherche et d’affaires qui a déterminé qu’il était approprié d’aller de l’avant pour un lancement expérimental limité. Elle a déclaré que les critiques du Times n’étaient pas censés se prononcer sur l’opportunité de poursuivre.
Un représentant de Google a déclaré à Insider : « Nous sommes satisfaits de la réception précoce de notre expérience avec Bard, même si nous continuons à l’améliorer, les commentateurs et les utilisateurs reconnaissant largement qu’elle a été publiée de manière conservatrice, avec des précautions et des limites importantes. »
Ces derniers mois, le monde de la technologie s’est empressé de déployer des produits d’IA générative. La course a apparemment été déclenchée par la sortie et la popularité virale de ChatGPT d’OpenAI, mais la vitesse de développement sonne l’alarme ailleurs.
En mars, plusieurs poids lourds de l’IA ont signé une lettre ouverte appelant à une pause de six mois sur le développement avancé de l’IA. La lettre indiquait que les entreprises d’IA étaient enfermées dans une « course incontrôlable » et citait des risques profonds pour la société liés à la technologie de pointe.
John Burden, l’un des signataires de la lettre et associé de recherche au Centre pour l’étude du risque existentiel, a précédemment déclaré à Insider que le rythme de développement de l’IA s’était accéléré à une vitesse sans précédent.
« Des choses qu’il y a cinq ans auraient semblé irréalistes d’attendre au cours de la prochaine décennie sont passées », a-t-il déclaré. « À plus grande échelle, nous ne sommes tout simplement pas prêts pour l’impact que cette technologie pourrait avoir – étant donné que nous ne savons pas vraiment comment ces modèles font ce qu’ils font. »