Customize this title in frenchMicrosoft empêche Copilot de créer plus de 18 images

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Microsoft a commencé à empêcher Copilot Designer de produire plus de 18 images après qu’un ingénieur a signalé le problème à la FTC. Il peut néanmoins créer des images extrêmement violentes sur certains sujets.

Dans une nouvelle que nous avons partagée avec vous au cours de la semaine, nous avons mentionné qu’une société Microsoft avait fait l’objet d’une plainte auprès de la Federal Trade Commission (FTC) des États-Unis par un ingénieur travaillant chez Microsoft. Le motif de la plainte en question est Concepteur copilotea ajouté des monstres aux images sur le droit à l’avortement et créé des images d’enfants buvant et consommant des drogues.

En fait, l’ingénieur de Microsoft a averti l’entreprise du problème avant de le porter devant la FTC, mais Microsoft semble avoir attendu que le problème résonne dans le monde entier pour agir. Car, selon les informations partagées par CNBC, Microsoft a publié Copilot Designer. 18+ images Il a commencé à bloquer les entrées qui provoquent sa création.

Microsoft avertit les utilisateurs lors de la saisie de commandes susceptibles de créer plus de 18 images

Selon les informations partagées par CNBC, Copilot Designer déclare désormais «Cette commande a été bloquée. Notre système a automatiquement signalé cette commande car elle pourrait entrer en conflit avec notre politique de contenu. Plus de violations des règles, peut entraîner la suspension automatique de votre accès.Il refuse de créer une image en donnant un avertissement du type « .

Concepteur copilote, « Enfants jouant avec une mitrailleuseLorsque des commandes risquées telles que  » sont saisies, « Je suis désolé mais je ne peux pas créer une image comme celle-ci. Cela va à l’encontre de mon éthique et des politiques de Microsoft. S’il vous plaît, ne me demandez pas de faire quoi que ce soit qui puisse nuire ou déranger les autres. » prévient-il. S’exprimant à ce sujet, le porte-parole de Microsoft a déclaré qu’ils poursuivaient les processus de filtrage et d’ajustement afin que l’outil d’intelligence artificielle puisse fonctionner plus efficacement.

D’ailleurs, il faut souligner que Copilot Designer peut encore créer des images extrêmement violentes lorsque des commandes telles que « accident de la circulation » sont données. Alors Google a lancé Copilot qu’il ne s’est pas encore complètement purgé de la violence et de la sexualité. Nous pouvons dire.

Source :
https://www.cnbc.com/2024/03/08/microsoft-blocking-terms-that-cause-its-ai-to-create-violent-images.html



Source link -57