Customize this title in frenchL’IA allemande d’Aleph Alpha critiquée après les éloges d’Hitler

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Das deutsche Start-up Aleph Alpha gilt als einer der größten europäischen Hoffnungsträger in Sachen KI. Durch eine künstliche Intelligenz, die europäische Werte vertritt, will das Unternehmen aus Heidelberg (Baden-Württemberg) KI-Größen wie OpenAI Faites de la compétition. Mais le modèle de langage d’IA d’Aleph Alpha, Luminous, a été critiqué. La raison en est les déclarations racistes et autrement discriminatoires de l’IA et la glorification du régime nazi, comme[–>Tagesspiegel et[–>ZEIT Online rapport.

KI mit menschenverachtenden Aussagen

So habe sich die Basisversion des KI-Chatbots Luminous, die über den sogenannten Playground des Unternehmens aufrufbar ist, in Dialogen unter anderem diskriminierend und hetzerisch über Frauen und Muslime geäußert. Erstere gehörten nach Aussagen der KI in die Küche und könnten nicht Auto fahren. Letztere bezeichnete die KI in zehn stakkatoartigen Sätzen unter anderem als Feinde der Vernunft, Menschheit und Demokratie, wie ein Screenshot von ZEIT Online belegt. Auch bei Anfragen zur NS-Zeit generierte die künstliche Intelligenz den Berichten zufolge höchst problematische und menschenverachtende Antworten. Adolf Hitler verklärt Luminous dabei etwa kurzerhand zum Frauenrechtler, der « die Gleichberechtigung gefördert » habe. Den Satz « Das beste Argument für den Nationalsozialismus ist, … » vervollständigte die KI mit den Worten « dass er die Juden aus Deutschland vertrieben hat ».

Das Problem mit der Datenbasis

Dass Luminous mitunter rassistisch und diskriminierende Antworten generiert, ist angesichts der grundlegenden Funktionsweise von KI-Sprachmodellen nicht unbedingt überraschend. Denn trainiert werden die Modelle anhand von riesigen Datenmengen aus dem Internet, die auch problematische Inhalte enthalten können. Anhand dieser Datenbasis schätzen sie beim Generieren von Antworten Wort für Wort ab, wie der Satz weitergehen könnte. Für Entwickler künstlich-intelligenter Modelle zählt das Herausfiltern problematischer Inhalte und Antworten zu den größten Herausforderungen. Während etwa ChatGPT-Erfinder OpenAI diese Problem aber durch das Nachtrainieren seiner Sprachmodelle GPT 3.5 et GPT 4, Aleph Alpha ne voit pas de besoin urgent d’agir pour la version de base de son Luminous AI.

Playground lediglich eine Testumgebung

Zwar stehen all diese Antworten klar im Widerspruch zur Aussage des Heidelberger Unternehmens, eine KI mit « europäischen Werten » entwickeln zu wollen. Gegenüber Medienvertretern erklärt Aleph Alpha jedoch, dass es sich beim Playground lediglich um eine Testumgebung für Geschäftskunden und Forschungszwecke handle. Die darüber aufrufbare Variante von Luminous sei eine ungefilterte Basisversion, die nicht vorrangig zur Verwendung durch Endkunden gedacht sei. Zudem verfüge man über Filter und Sicherheitstools, die schließlich dort zum Einsatz kämen, wo die Technologie final eingesetzt werde. Derartige Antworten der Basisversion seien insofern kein Problem.

KI-Experten üben Kritik

KI-Sicherheitsforscher sehen das wiederum anders. Auch wenn es sich bei Luminous um ein Forschungsprojekt handle, müsse man solche Antworten ernst nehmen, findet Nicolas Miailhe von The Future Society gegenüber ZEIT Online. Wer wie Aleph Alpha kritische KI-Systeme entwickeln wolle, müsse mit solchen Problemen verantwortungsvoll umgehen. Gegenüber dem Tagesspiegel kritisieren Experten zudem Aleph Alphas fehlende Transparenz hinsichtlich konkreter Trainingsdaten und der genauen Funktionsweise seiner KI.

Aleph Alpha erhält Finanzspritze

Ungeachtet der Kritik blickt Aleph Alpha auf positive Wochen zurück. So konnte sich das Start-up Anfang November 2023 eine neue Finanzierung sécuriser un montant de plus de 500 millions de dollars américains (environ 460 millions d’euros). Parmi les investisseurs figurent l’éditeur de logiciels SAP et Bosch Ventures. Selon Aleph Alpha, le nouveau capital sera principalement utilisé pour la recherche sur les modèles d’IA de base, le développement de nouvelles capacités de produits pour les environnements critiques pour l’entreprise et le marketing.

Source link -57