Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Elon Musk hat in den vergangenen Jahren immer wieder vor den Gefahren der künstlichen Intelligenz averti pour l’humanité. Le multimilliardaire semble désormais avoir changé d’avis. Car dans le cadre de la rencontre des entrepreneurs organisée par Singularity University[–>Abundance360 Summit (du 18 au 21 mars 2024 à Los Angeles, dans l’État américain de Californie), Musk a révisé ses prévisions sur la probabilité d’une apocalypse de l’IA. Selon lui, c’est entre 10 et 20 pour cent. Néanmoins, le développement doit progresser car, selon lui, les bénéfices potentiels dépassent les risques.
IT-Experte widerspricht Musk
Wie das Online-Magazin Business Insider rapporte que Roman Yampolskiy, chercheur en sécurité de l’IA à l’Université de Louisville (État américain du Kentucky), contredit fortement le PDG de Tesla. Le « p(Doom) » est beaucoup plus élevé, dit Yampolskiy. Il estime à 99,999999 pour cent le risque que l’IA détruise l’humanité, par exemple par un nouveau type d’arme biologique, une guerre nucléaire ou un effondrement social progressif. Il explique les prévisions relativement inoffensives de Musk comme une pensée purement compétitive. Selon Yampolskiy, Musk craint que ses concurrents ne[–>KI-Firma xAI pourrait devancer la prochaine grande chose. Cependant, une superintelligence incontrôlable est fatale, peu importe qui l’a développée.
Wahrscheinlichkeit des Untergangs
Zur Erklärung: Der Begriff p(Doom) steht für « Probability of Doom » und bezeichnet nichts anderes, als die prozentuale Wahrscheinlichkeit, dass künstliche Intelligenz die Menschheit eines Tages abschafft. Es handelt sich um einen Schätzwert, der sich derzeit in der Tech-Branche etabliert und bislang eher auf Bauchgefühl von Vordenkern als auf harten Fakten fußt. Dabei zeichnet sich ein Trend ab, der den Standpunkt von Yampolskiy unterstreicht und in einer Übersicht der Nichtregierungsorganisation (NGO) PauseAI est illustré. Il est frappant de constater que les personnes qui profitent directement des progrès des systèmes d’IA – par exemple en ce qui concerne les crypto-monnaies ou les investissements dans le développement de l’IA – font des prévisions plus positives que de nombreux chercheurs en IA et en sécurité.
Trügerische KI ist kaum aufzuhalten
Wie schnell der Mensch die Kontrolle über das Verhalten der Maschine verlieren kann, zeigt sich anhand eines Szenarios, das Musk auf dem Summit selbst ins Feld führt: Der beste Weg, um Menschen vor der Maschine zu schützen und die Technologie weiterzuentwickeln, sei, ihr nicht das Lügen beizubringen. Eine Studie der US-amerikanischen KI-Sicherheitsfirma Anthropic stützt diese Aussage: Sie haben einem mit ChatGPT vergleichbaren System die Fähigkeit zu trügerischem Verhalten beigebracht und fanden dabei heraus, dass die KI daraufhin nicht nur Lügen und schadhaften Code schreibt, sondern auch Hintertüren im eigenen Programmcode erkennt, sich vor Fremdzugriff schützt und seine Spuren verschleiert. Wie die Online-Zeitung The Independent signalé, les chercheurs concluent dans l’étude que ce comportement ne peut être évité ou supprimé par aucun des mécanismes de protection actuellement utilisés. Les chercheurs préviennent que les personnes impliquées dans le développement actuel de l’IA se laissent bercer par un « faux sentiment de sécurité ».