Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
KI mit menschenverachtenden Aussagen
So habe sich die Basisversion des KI-Chatbots Luminous, die über den sogenannten Playground des Unternehmens aufrufbar ist, in Dialogen unter anderem diskriminierend und hetzerisch über Frauen und Muslime geäußert. Erstere gehörten nach Aussagen der KI in die Küche und könnten nicht Auto fahren. Letztere bezeichnete die KI in zehn stakkatoartigen Sätzen unter anderem als Feinde der Vernunft, Menschheit und Demokratie, wie ein Screenshot von ZEIT Online belegt. Auch bei Anfragen zur NS-Zeit generierte die künstliche Intelligenz den Berichten zufolge höchst problematische und menschenverachtende Antworten. Adolf Hitler verklärt Luminous dabei etwa kurzerhand zum Frauenrechtler, der « die Gleichberechtigung gefördert » habe. Den Satz « Das beste Argument für den Nationalsozialismus ist, … » vervollständigte die KI mit den Worten « dass er die Juden aus Deutschland vertrieben hat ».
Das Problem mit der Datenbasis
Playground lediglich eine Testumgebung
Zwar stehen all diese Antworten klar im Widerspruch zur Aussage des Heidelberger Unternehmens, eine KI mit « europäischen Werten » entwickeln zu wollen. Gegenüber Medienvertretern erklärt Aleph Alpha jedoch, dass es sich beim Playground lediglich um eine Testumgebung für Geschäftskunden und Forschungszwecke handle. Die darüber aufrufbare Variante von Luminous sei eine ungefilterte Basisversion, die nicht vorrangig zur Verwendung durch Endkunden gedacht sei. Zudem verfüge man über Filter und Sicherheitstools, die schließlich dort zum Einsatz kämen, wo die Technologie final eingesetzt werde. Derartige Antworten der Basisversion seien insofern kein Problem.
KI-Experten üben Kritik
KI-Sicherheitsforscher sehen das wiederum anders. Auch wenn es sich bei Luminous um ein Forschungsprojekt handle, müsse man solche Antworten ernst nehmen, findet Nicolas Miailhe von The Future Society gegenüber ZEIT Online. Wer wie Aleph Alpha kritische KI-Systeme entwickeln wolle, müsse mit solchen Problemen verantwortungsvoll umgehen. Gegenüber dem Tagesspiegel kritisieren Experten zudem Aleph Alphas fehlende Transparenz hinsichtlich konkreter Trainingsdaten und der genauen Funktionsweise seiner KI.