Customize this title in frenchLes arnaques à l’intelligence artificielle se multiplient : existe-t-il un moyen de distinguer les fausses voix des vraies ?

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa popularité croissante de la technologie de l’intelligence artificielle peut être utilisée par des personnes malveillantes à différentes fins. Les fausses chansons créées à l’aide de la voix d’artistes sont particulièrement populaires. Alors, y a-t-il un moyen de distinguer les voix clonées avec l’intelligence artificielle des vraies voix ? Le champ d’utilisation de l’intelligence artificielle s’élargit progressivement. Les dirigeants politiques et les personnalités mondialement connues en voient les effets les plus importants. Vieux Le président américain Donald Trump Et Pape François Les images créées à l’aide de l’intelligence artificielle sur le sujet ont eu un grand impact dans la société. Bien que les chansons et les vidéos produites avec de fausses voix puissent sembler amusantes, il y a aussi une dimension sombre : Fraude. Une rançon a été exigée d’une mère pour sa fille kidnappée dans le passé, et la fausse voix de la fille prétendument enlevée a été utilisée pour prouver la réalité de la situation. En fait, la jeune fille n’avait jamais été enlevée. La même méthode de fraude devient plus réaliste avec l’intelligence artificielle Les arnaques à l’intelligence artificielle deviennent de plus en plus courantes, et cela peut devenir assez effrayant car la voix au bout du téléphone ressemble à la voix d’un être cher. Aujourd’hui, la fraude est une profession pour certains dans de nombreuses régions du monde, y compris notre pays. Avec le développement de la technologie, cette situation devient de plus en plus crédible. Les escroqueries par téléphone sont, bien sûr, les plus faciles et les plus courantes. Mais maintenant, c’est encore plus effrayant. En avril 2023, nous avons vu des exemples de la prochaine génération d’escroqueries par intelligence artificielle. Par exemple, en utilisant la méthode d’usurpation d’appel, un être cher est apparu comme l’appelant sur le téléphone de la victime. Un autre a utilisé un clone de voix d’IA pour tenter d’extorquer une rançon à une mère afin de libérer sa fille enlevée. McAfee La société a vu un tel abus de l’intelligence artificielle et a publié un rapport approfondi sur le sujet. Dans son rapport, la société a expliqué les moyens de prévenir les fausses voix et de se protéger contre la fraude. NOUVELLES CONNEXES La nouvelle chanson de Drake et The Weeknd, avec plus de 10 millions de vues sur Tiktok, est en fait un produit d’intelligence artificielle ! Avant d’expliquer les méthodes, examinons comment les fausses voix de l’intelligence artificielle fonctionnent ensemble. Comment fonctionne le clonage de voix par IA ? Tout d’abord, nous pouvons dire que la fraude vocale par intelligence artificielle est une nouvelle version d’une méthode existante de longue date, mais elle est beaucoup plus convaincante que cela. Habituellement dans ce type de fraude; La voix d’un être cher est utilisée pour demander de l’argent en cas d’urgence, ou la victime est informée qu’elle a kidnappé un être cher contre rançon. En 2019, des escrocs se faisant passer pour le PDG d’une société d’énergie basée au Royaume-Uni, Il a exigé 243 000 $. À Hong Kong, un directeur de banque a été trompé par quelqu’un utilisant la technologie de clonage de la voix, ce qui a entraîné un important virement bancaire au début de 2020. Au Canada, au moins huit personnes âgées ont été accusées d’escroqueries par clonage de voix plus tôt cette année. Il a perdu 200 000 $. Étant donné que les outils de clonage de voix IA sont si bon marché et disponibles, créer des clones de voix pour des parties malveillantes est en fait assez simple. Les médias sociaux sont, bien sûr, le moyen le plus simple d’obtenir un échantillon audio pour ce faire. Plus vous partagez votre voix en ligne, plus il est facile pour les escrocs de trouver et de cloner votre voix. Dans l’image ci-dessus, vous pouvez voir les résultats d’un sondage. Selon les données obtenues; 26% des utilisateurs déclarent partager leur voix sur les réseaux sociaux une à deux fois par semaine. NOUVELLES CONNEXES Une intelligence artificielle de rêve pour les étudiants, un cauchemar pour les enseignants ? Quelle est la fréquence des escroqueries vocales par IA ? Bien que certaines histoires sur les escroqueries vocales basées sur l’intelligence artificielle commencent tout juste à apparaître dans les nouvelles, la recherche révèle que ce type d’escroquerie devient assez courant. En regardant les enquêtes mondiales, 25% des personnes disent qu’elles-mêmes ou quelqu’un qu’elles connaissent ont été exposées à des escroqueries par intelligence artificielle. Selon les données de l’enquête Le pays avec le plus de problèmes de fraude vocale par intelligence artificielle est l’Inde avec 47 %. NOUVELLES CONNEXES Chanson de chat réalisée avec l’intelligence artificielle « Utilisation de la voix d’Eminem » supprimée en raison du droit d’auteur (chanson d’Eminem ou intelligence artificielle ?) Les outils de clonage vocal offrent une précision de 95 % Les outils d’intelligence artificielle utilisés pour le clonage de la voix sont si réalistes que presque toutes les victimes disent que la fausse voix est exactement comme la voix de la personne qu’elles connaissent. En fait, dans le cas de rançon que nous avons mentionné ci-dessus, la mère victime déclare que même la « langue » de sa fille est la même à l’exception de sa voix. Le fait que les fausses voix de l’intelligence artificielle soient si similaires à la réalité coûte aux gens des milliers de dollars en peu de temps. Selon la recherche, les victimes de fraude vocale AI 77%Il perd leur argent. Les données sont au total tout au long de l’année 2022. 2,6 milliards de dollars indique qu’une pièce a été volée par cette méthode. NOUVELLES CONNEXES L’intelligence artificielle développée pour transcrire les pensées dans nos cerveaux ! Alors, comment distinguer les faux sons des vrais ? Pour l’instant, il n’existe aucun moyen infaillible et rapide d’empêcher les escroqueries vocales par IA. Cependant, vous pouvez prendre certaines précautions par vous-même. Limitez le nombre de partages audio et/ou vidéo en ligne et/ou définissez vos comptes de réseaux sociaux comme privés plutôt que publics, Si vous recevez un appel suspect et qu’un proche a besoin d’une aide financière immédiate, posez une ou deux questions auxquelles seule cette personne peut répondre (ne posez jamais une question qui a une réponse en ligne). Les cybercriminels comptent sur le lien émotionnel entre vous et leur imitateur pour mobiliser la victime. Soyez sceptique et n’ayez pas peur de remettre en question. Si vos doutes ne sont pas dissipés, raccrochez et appelez directement cette personne. $(function(){ //facebook window.fbAsyncInit = function() FB.init( appId : ‘1037724072951294’, xfbml : true, version : ‘v2.5’ ); ; (function(d, s, id) var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = « https://connect.facebook.net/tr_TR/sdk.js »; fjs.parentNode.insertBefore(js, fjs); (document, ‘script’, ‘facebook-jssdk’)); $(‘body’).on( click: function() // facebook save button ajax FB.XFBML.parse(); , ‘.facebook-save’); // share scroll if ($(‘.content-sticky’).length > 0) { if ($(window).width() >= 768) { $(window).on(‘scroll’, function () { var scrollTop = $(this).scrollTop(); $(‘article’).each(function () if (scrollTop >= ($(this).find(‘.content-body’).offset().top – 76)) $(this).find(‘.content-sticky’).addClass(‘sticky’); if (scrollTop >= ($(this).find(‘.content-body’).offset().top + $(this).find(‘.content-body’).height() – ($(this).find(‘.content-sticky’).height() + 92))) $(this).find(‘.content-sticky’).removeClass(‘sticky’); $(this).find(‘.content-sticky’).css(‘bottom’: ‘0px’, ‘top’: ‘auto’); else $(this).find(‘.content-sticky’).addClass(‘sticky’).css( ‘bottom’: ‘initial’, ‘top’: ’76px’ ); else $(this).find(‘.content-sticky’).removeClass(‘sticky’).css(‘bottom’: ‘auto’, ‘top’: ‘0’); ); }); } } // share click $(‘body’).on({ click: function (){ var $this = $(this), dataShareType = $this.attr(‘data-share-type’), dataType = $this.attr(‘data-type’), dataId = $this.attr(‘data-id’), dataPostUrl = $this.attr(‘data-post-url’), dataTitle = $this.attr(‘data-title’), dataSef = $this.attr(‘data-sef’); switch(dataShareType) case ‘facebook’: FB.ui( method: ‘share’, href: dataSef, , function(response) if (response && !response.error_message) updateHit(); ); break; case ‘twitter’: shareWindow(‘https://twitter.com/intent/tweet?via=webtekno&text= »+encodeURIComponent(dataTitle) +  » %E2%96%B6 ‘ + encodeURIComponent(dataSef)); updateHit(); break; case ‘gplus’: shareWindow(‘https://plus.google.com/share?url= » + encodeURIComponent(dataSef)); updateHit(); break; case « mail’: window.location.href= »https://www.webtekno.com/mailto:?subject= » + encodeURIComponent(dataTitle) +’&body=’+ encodeURIComponent(dataSef); //updateHit(); break; case ‘whatsapp’: window.location.href= »whatsapp://send?text= » + encodeURIComponent(dataTitle) +’ %E2%96%B6 ‘+ encodeURIComponent(dataSef); updateHit(); break; function shareWindow (url) window.open(url, « _blank », « toolbar=yes, scrollbars=yes, resizable=yes, top=500, left=500, width=400, height=400 »); function updateHit () { $.ajax({ type: « POST », url: dataPostUrl, data: contentId: dataId, contentType: dataType, shareType: dataShareType, success: function(data) { if ($(‘.video-showcase’).length > 0) var $container = $(‘.video-showcase’); else if ($(‘article[data-id= »‘ + dataId + ‘ »]’).length > 0) var $container = $(‘article[data-id= »‘ + dataId + ‘ »]’); else if ($(‘.wt-share-item[data-id= »‘ + dataId + ‘ »]’).length > 0) var $container = $(‘.wt-share-item[data-id= »‘ + dataId + ‘ »]’); else $container = null; //var $container = dataType == ‘video’ ? $(‘.video-showcase’) : $(‘article[data-id= »‘ + dataId + ‘ »]’); if ( $container != null && $container.length > 0 )…

Source link -57