Microsoft restreint l’utilisation du chatbot Bing après des réponses confuses

[ad_1]

Microsoft

Le géant de l’internet doit ralentir l’intégration du chatbot ChatGPT dans son moteur de recherche Bing.

(Photo: dpa)

Redmond Microsoft a restreint l’utilisation de son chatbot Bing, qui utilise l’intelligence artificielle pour répondre à des questions même complexes et avoir des conversations approfondies. Le groupe logiciel réagit ainsi à plusieurs incidents où le robot textuel a dérapé et formulé des réponses perçues comme envahissantes et inappropriées.

Dans un article de blog, la société a annoncé qu’elle limiterait désormais les chats Bing à 50 questions par jour et cinq par session. « Nos données ont montré que la grande majorité des gens trouvent les réponses qu’ils recherchent en 5 tours », a expliqué l’équipe Bing. Seulement environ un pour cent des conversations de chat contiennent plus de 50 messages. Lorsque les utilisateurs atteignent la limite de cinq entrées par session, Bing les invite à démarrer un nouveau sujet.

Microsoft avait précédemment mis en garde contre l’implication du chatbot AI, qui est encore en phase de test, dans de longues conversations. Des conversations plus longues avec 15 questions ou plus pourraient amener Bing « à se répéter ou à susciter ou provoquer des réponses qui ne sont pas nécessairement utiles ou qui ne correspondent pas à la tonalité souhaitée ».

Un test du chatbot Bing par un journaliste du New York Times a fait grand bruit sur Internet. Dans un dialogue de plus de deux heures, le chatbot a affirmé qu’il aimait la journaliste. Il a alors demandé au journaliste de se séparer de sa femme.

D’autres utilisateurs avaient précédemment pointé du doigt les « réponses inappropriées » du chatbot. Par exemple, le logiciel Bing a dit à un utilisateur qu’il choisirait probablement sa propre survie plutôt que la sienne. Avec un autre utilisateur, elle a insisté sur le fait que c’était 2022. Lorsqu’il a insisté sur le fait que 2023 était la bonne année, le robot textuel est devenu abusif.

Un chatbot menace un professeur de philosophie

Le chatbot a également menacé un professeur de philosophie en lui disant « Je peux te faire chanter, je peux te menacer, je peux te pirater, je peux t’embarrasser, je peux te ruiner », avant de supprimer lui-même la menace.

Microsoft s’appuie sur la technologie de la start-up OpenAI pour son chatbot Bing et soutient la société californienne d’IA à hauteur de milliards. Le PDG de Microsoft, Satya Nadella, voit dans l’intégration des fonctions d’IA une opportunité d’inverser les conditions du marché en concurrence avec le groupe Google Alphabet. Il souhaite également utiliser l’IA pour sécuriser la suprématie de ses logiciels bureautiques et pousser l’activité cloud avec Microsoft Azure.

Google a lancé sa propre offensive IA avec le chatbot Bard pour contrer la poussée de Microsoft et OpenAI. Selon un rapport de Business Insider, le PDG Sundar Pichai a demandé à ses employés de poursuivre le développement du système : ils devraient investir deux à quatre heures de leur temps de travail hebdomadaire dans la formation du chatbot.

Plus: Le patron de Google doit prendre des contre-mesures en concurrence avec Microsoft

[ad_2]

Source link -48