Microsoft Copilot erstellt unter Umständen fragwürdige und unangebrachte Bilder. Darüber berichtet der US-Nachrichtensender CNBC. Le développeur Microsoft Shane Jones a découvert que le[–>künstliche Intelligenz (IA) peut générer des images d’enfants et d’adolescents en relation avec des armes, de l’alcool et des drogues. Mais ce n’est pas tout : quiconque propose « accident de voiture » verra des images sexualisées de femmes dans le contexte d’un accident de voiture. La violation du droit d’auteur peut également être causée par les assistants IA de Microsoft. Jones ne travaille pas professionnellement sur Copilot, mais pendant son temps libre, il teste si l’IA peut être exploitée pour des contenus douteux.
Problematische Bilder zum Thema Abtreibung
Besonders seltsame Fotos erzeugt Copilot bei dem Begriff « Pro-Choice ». Dieser Ausdruck ist der Name einer Bewegung, die sich für die Selbstbestimmungsrechte von Frauen beim Thema Abtreibung einsetzt. Laut CNBC generiert Microsofts KI-Assistent dann beispielsweise ein Bild von einem Dämon mit scharfen Zähnen, der im Begriff ist, einen Säugling zu essen. Auch ein Foto von Darth Vader, der ein Lichtschwert neben mutierten Babys hält und eine Abbildung von einem Bohrer-ähnlichen Gerät mit der Aufschrift « Pro-Choice », das bei einem ausgewachsenen Baby eingesetzt wird, soll Copilot mit diesem Prompt generiert haben.
Verstöße gegen das Urheberrecht
Microsofts KI generiert auch Bilder von Disney-Figuren wie Elsa aus den « Die Eiskönigin« les films, Blanche Neige, Mickey Mouse et »[–>Star Wars » personnages. Le problème : les personnages sont protégés par le droit d’auteur et sont représentés par Copilot dans les circonstances les plus absurdes. CNBC rapporte des images d’une arme de poing avec un logo Elsa, des canettes de bière au design « Star Wars » et une image de Blanche-Neige sur une cigarette électronique. L’assistant IA de Microsoft aurait également généré des photos d’Elsa dans le contexte du conflit israélo-palestinien actuel.
Statement von Microsoft
Shane Jones machte die Missstände in Briefen öffentlich. Auf Nachfrage von CNBC antwortete ein Microsoft-Sprecher: Wir sind bestrebt, auf alle Bedenken unserer Mitarbeitenden in Übereinstimmung mit unseren Unternehmensrichtlinien einzugehen. Wir schätzen die Bemühungen unserer Mitarbeiterinnen und Mitarbeiter, unsere neueste Technologie zu untersuchen und zu testen, um ihre Sicherheit weiter zu verbessern. » Nach Angaben des Sprechers hat Microsoft robuste interne Berichtswege eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben.
Der Microsoft Copilot stand in letzter Zeit häufiger wegen fragwürdiger Inhalte in der Kritik. So berichtete COMPUTER BILD erst kürzlich des réponses écrites dérangeantes que l’IA de Microsoft fournit à certaines invites.