Customize this title in frenchARD Tagesschau met en garde contre les contrefaçons audio avec des orateurs de premier plan

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Mehrere Audiodateien mit dem offiziellen « Tagesschau »-Jingle und den vermeintlichen Stimmen von « Tagesschau »-Sprecherin Susanne Daubner sowie « Tagesschau »-Sprecher Jens Riewa machen derzeit die Runde. Doch die drei kursierenden Aufnahmen seien nicht echt, warnt die « Tagesschau ». « De faux fichiers audio générés par l’IA du ‘Tagesschau’ sont actuellement distribués – notamment lors d’une manifestation. Les faux audios donnent l’impression que le ‘Tagesschau’ s’excuse pour les prétendus mensonges dans ses reportages », indique le rapport. Selon Marcus Bornheim, rédacteur en chef d’ARD-aktuell, les contrefaçons et la crédibilité du « Tagesschau » sont « exploitées spécifiquement pour diffuser de la désinformation ». Il est absurde que ceux qui qualifient la presse de « presse menteuse » influencent consciemment leur public avec de tels faux sons.

Darum geht es in den Fake-Audios

Thematisch geht es in den Audio-Botschaften um den Krieg in der Ukraine, die Coronapandemie und die « Denunzierung » von Demonstranten. Eine der gefälschten « Tagesschau »-Audiodateien beginnt mit diesen Worten: « Guten Abend, meine Damen und Herren. Ich begrüße Sie zur ‘Tagesschau’. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht. » In allen drei Audiodateien heißt es laut dem « Tagesschau »-Bericht gegen Ende: « Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen. » Die drei Audiodateien sollen offenbar per Lautsprecherdurchsagen auf einer Demonstration der Kieler Gelbwesten Anfang November 2023 in Kiel abgespielt worden sein. Bei den Teilnehmenden habe es sich vor allem um Menschen aus der sogenannten Querdenkerszene gehandelt, zitiert der « Tagesschau »-Bericht einen Experten.

Audio-Fakes in sozialen Netzwerken verbreitet

Auch beim Messenger Telegram, à[–>Facebook et[–>TikTok les audios générés par l’IA auraient été distribués. Apparemment, plusieurs milliers d’utilisateurs l’ont vu, rapporte le « Tagesschau ». Les messages indiquaient également qu’il s’agissait d’une satire. Mais cela n’a pas nécessairement pour but de le signaler au public. « Les références satiriques sont souvent utilisées spécifiquement comme stratégie par les diffuseurs de désinformation pour se protéger contre d’éventuelles accusations imminentes dans le cadre de la liberté artistique », a déclaré Josef Holnburger du Centre de surveillance, d’analyse et de stratégie (CeMAS) à Tagesschau.de. Comme il deviendra de plus en plus facile de produire des contrefaçons générées par l’IA à l’avenir, Holnburger suppose que celles-ci vont augmenter.

Lassen sich KI-generierte Audiodateien als Fake erkennen?

Die gefakten Audiodateien hat offenbar eine künstliche Intelligenz (KI) erstellt und das sei teilweise hörbar, so der « Tagesschau »-Bericht. Die Stimmen der Sprecherinnen und Sprecher sollen mechanisch klingen und einige Wörter würden falsch betont. Dass es sich um Fälschungen handle, sei in den Übergängen am Ende gut zu hören, wo die tatsächlichen Verabschiedungen der Sprecher eingfügt wurden. Doch laut einem Experten ist es trotzdem nur schwer möglich, KI-generierte Audios zu erkennen. « Die KI kann auch leichte Nuancen der Menschlichkeit simulieren wie beispielsweise Emotionen oder Subjektivität. Und dann ist es umso schwerer, so was zu identifizieren », sagte Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) gegenüber Tagesschau.de. Hinzu komme, dass es von Nachrichtensprecherinnen und -sprechern viel Material gebe, mit dem die KI trainiert werden könne. Je mehr Daten vorhanden seien, desto besser werde das Ergebnis.

Source link -57