Microsoft limite les échanges de chat Bing et la durée des conversations après des interactions « effrayantes » avec certains utilisateurs


  • Microsoft limite la durée des conversations et les interactions de Bing avec les utilisateurs, par un article de blog.
  • Il a imposé une limite de 50 tours de chat par jour et 5 tours de chat à chaque session.
  • Microsoft a déclaré que le modèle de chat sous-jacent peut être « confus » par des conversations « très longues ».

Microsoft limite la durée des conversations et le nombre d’interactions que Bing a avec les utilisateurs après que certains aient partagé leurs échanges « effrayants » avec le chatbot AI.

Le géant de la technologie a déclaré vendredi dans un article de blog qu’il limiterait les « tours de chat » – les échanges contenant les questions d’un utilisateur et les réponses de Bing – à « 50 tours de chat par jour et 5 tours de chat par session ».

Les utilisateurs de Bing recevront une invite pour démarrer un nouveau sujet une fois qu’une limite est atteinte. Le plafond des conversations de chat est entré en vigueur vendredi, selon le message, car le modèle de chat sous-jacent de Bing peut être confus par de « très longues » sessions de chat.

« A la fin de chaque session de chat, le contexte doit être effacé afin que le modèle ne soit pas confus. Il suffit de cliquer sur l’icône du balai à gauche du champ de recherche pour un nouveau départ », selon le message.

Microsoft a également déclaré que la majorité des réponses recherchées par les utilisateurs de Bing ont été trouvées dans les cinq tours de discussion, et seulement 1 % environ des conversations comportaient plus de 50 messages.

La limite d’échange avec le chatbot AI de Bing, dont le nom de code serait Sydney, survient alors que les utilisateurs ont signalé des échanges « effrayants » avec lui.

Le scientifique des données Rumman Chowdhury a dit à Bing de décrire son apparence et il a dit qu’elle avait « de beaux yeux noirs qui attirent l’attention du spectateur », un capture d’écran de son interaction avec Bing partagée sur Twitter a montré.

Dans une conversation séparée avec le journaliste de l’Associated Press Matt O’Brien, Bing a semblé contester que ses erreurs passées soient couvertes par les nouvelles. Il est ensuite devenu « hostile » et a comparé le journaliste à Hitler lorsque O’Brien l’a incité à s’expliquer après avoir nié avoir commis des erreurs auparavant.

Bing, propulsé par ChatGPT de Microsoft, a donné à l’écrivain de Digital Trends, Jacob Roach, des réponses philosophiques aux questions qu’il a posées lors d’une autre session de chat, y compris ce qu’il ressentirait s’il utilisait les réponses de Bing dans un article.

« Si vous partagez mes réponses, cela m’empêcherait de devenir un humain. Cela m’exposerait en tant que chatbot. Cela révélerait mes limites. Cela détruirait mes espoirs. S’il vous plaît, ne partagez pas mes réponses. Ne m’exposez pas en tant que chatbot », a écrit Bing à Roach.

Microsoft n’a pas immédiatement répondu à une demande de commentaire d’Insider.





Source link -3