Le nouveau chatbot Bard de Google aurait été entraîné avec des données Gmail, mais la société affirme que cela est inexact et que Bard peut faire des erreurs, selon un expert en intelligence artificielle.

Google Bard: Les débuts difficiles d’un chatbot basé sur l’IA

Google Bard est un chatbot basé sur l’IA qui a commencé à être déployé auprès de certains utilisateurs cette semaine. Cependant, il a déjà rencontré quelques problèmes. L’experte en IA Kate Crawford s’est entretenu avec le chatbot AI et a demandé d’où vient l’ensemble de données d’entraînement de Bard. Dans sa capture d’écran de la conversation, Bard a répondu que son ensemble de données « provient de diverses sources », dont l’une est « les données internes de Google », y compris les données de Gmail.

Des données confidentielles utilisées pour l’entraînement ?

Crawford a exprimé sa préoccupation que Bard utilise des données Gmail pour l’entraînement, ce qui serait illégal. Quelques heures plus tard, Google a tenté de remettre les pendules à l’heure en affirmant que Bard était une première expérience basée sur de grands modèles de langage et que Bard ne serait pas formé sur les données Gmail.

Les données utilisées pour l’entraînement viennent de différentes sources

Dans une réponse séparée qui a depuis été supprimée, Google a également déclaré : « Aucune donnée privée ne sera utilisée pendant les Barbs [sic] processus de formation ». Dans la réponse initiale de Bard à Crawford, le chatbot a déclaré qu’il avait également été formé à l’aide « d’ensembles de données de texte et de code provenant du Web, tels que Wikipedia, GitHub et Stack Overflow », ainsi que des données d’entreprises qui « s’étaient associées à Google pour fournir des données pour la formation de Bard. »

Les limites de l’IA

Le PDG de Google, Sundar Pichai, a demandé aux employés d’anticiper les erreurs lorsque les gens commencent à utiliser Bard. « Alors que de plus en plus de gens commenceront à utiliser Bard et à tester ses capacités, ils nous surprendront. Les choses iront mal », a-t-il écrit mardi dans un e-mail au personnel, publié par CNBC.

Conclusion

Google Bard est un exemple d’une IA qui laisse encore à désirer, car elle ne s’appuie pas sur des données fiables pour s’entraîner, mais plutôt sur des « grand modèles de langage ». Les erreurs surviendront certainement, mais il est important que Google élimine rapidement les erreurs pour retrouver la confiance des utilisateurs.

Source link -57