Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. Jan Nicola Beyer est le coordinateur de recherche de l’unité Démocratie numérique de Democracy Reporting International. Le débat sur les risques de l’intelligence artificielle (IA) générative bat actuellement son plein. D’une part, les partisans du modèle des outils d’IA générative louent leur potentiel à générer des gains de productivité sans précédent depuis la révolution industrielle. De l’autre, il y a un chœur croissant qui soulève des inquiétudes concernant les dangers potentiels que posent ces outils. Bien qu’il y ait eu de nombreux appels pour réglementer, voire bloquer, le développement de nouvelles technologies d’IA, cependant, il y a une toute autre dimension qui semble manquer au débat : la détection. Par rapport à la réglementation, investir dans des technologies qui font la distinction entre le contenu généré par l’homme et celui généré par la machine – comme DetectGPT et GPTZero pour le texte, et AI Image Detector pour les visuels – peut être considéré par certains comme une solution inférieure aux normes. Cependant, comme la réglementation sera confrontée à des défis insurmontables, la détection peut offrir une voie prometteuse pour atténuer les risques potentiels de l’IA. Il est indéniable que l’IA générative a le potentiel d’améliorer la créativité et d’augmenter la productivité. Pourtant, perdre la capacité de faire la distinction entre le contenu naturel et synthétique pourrait également donner du pouvoir aux acteurs néfastes. Des simples formes de plagiat dans les écoles et les universités à la violation des systèmes de sécurité électroniques et au lancement de campagnes de désinformation professionnelles, les dangers derrière les machines qui écrivent des textes, dessinent des images ou réalisent des vidéos sont multiples. Toutes ces menaces appellent une réponse, non seulement juridique mais aussi technique. Pourtant, ces solutions techniques ne reçoivent pas le soutien qu’elles devraient. Actuellement, les fonds alloués aux nouveaux outils génératifs dépassent largement les investissements dans la détection. Microsoft a investi à lui seul 10 milliards de dollars dans OpenAI, la société derrière ChatGPT. Pour mettre cela en perspective, les dépenses européennes totales consacrées à l’IA sont estimées à environ 21 milliards de dollars, et étant donné que la détection n’a pas figuré en bonne place dans le débat public, seule une petite fraction de cette somme peut être supposée être consacrée à cet objectif. Mais pour atténuer ce déséquilibre, nous ne pouvons pas nous contenter de compter sur l’industrie pour intervenir. Il est peu probable que les entreprises privées correspondent aux fonds alloués à la détection avec leurs dépenses en IA générative, car les bénéfices de la détection de la production générative ne sont probablement pas aussi lucratifs que ceux du développement de nouveaux outils créatifs. Et même dans les cas où des opportunités d’investissement lucratives pour les outils de détection existent, les produits spécialisés atteindront rarement les mains du public. La technologie audio synthétique en est un bon exemple. Même si les soi-disant clones de voix constituent une menace sérieuse pour le public – en particulier lorsqu’ils sont utilisés pour se faire passer pour des politiciens ou des personnalités publiques – les entreprises privées donnent la priorité à d’autres préoccupations, telles que les mécanismes de détection visant les systèmes de sécurité des banques pour prévenir la fraude. Et les développeurs de ces technologies ont peu d’intérêt à partager leur code source, car cela encouragerait les tentatives de contournement de leurs systèmes de sécurité. Pendant ce temps, les législateurs ont jusqu’à présent mis l’accent sur la réglementation du contenu de l’IA plutôt que sur le financement de la recherche pour la détection. L’Union européenne, par exemple, a repris l’effort de régulation via la loi sur l’IA, un cadre réglementaire visant à assurer le développement et l’utilisation responsables et éthiques de l’IA. Néanmoins, trouver le juste équilibre entre contenir les technologies à haut risque et permettre l’innovation s’avère difficile. En outre, il reste à voir si une réglementation efficace peut même être réalisée. Bien que ChatGPT puisse être soumis à une surveillance légale car il a été développé par OpenAI – une organisation qui peut être tenue légalement responsable – il n’en va pas de même pour les petits projets créant des modèles de grande langue (LLM), qui sont les algorithmes qui sous-tendent des outils comme ChatGPT. . En utilisant le modèle LLaMA de Meta, par exemple, les chercheurs de l’Université de Stanford ont pu créer leur propre LLM avec des performances similaires à ChatGPT pour le coût de seulement 600 $. Ce cas démontre que d’autres LLM peuvent être construits assez facilement et à moindre coût sur des modèles déjà existants et éviter l’autorégulation – une option attrayante pour les criminels ou les acteurs de la désinformation. Et dans de tels cas, la responsabilité juridique peut être tout à fait impossible. Des mécanismes de détection robustes présentent donc une solution viable pour prendre l’avantage dans la course aux armements en constante évolution contre les outils d’IA générative. Déjà à l’avant-garde de la lutte contre la désinformation et ayant promis des investissements massifs dans l’IA, c’est là que l’UE devrait montrer la voie en matière de financement de la recherche. Et la bonne nouvelle est qu’il n’est même pas nécessaire de faire correspondre le montant du financement dédié au développement d’outils d’IA générative et l’argent dépensé pour développer des outils qui facilitent leur détection. En règle générale, les outils de détection ne nécessitent pas de grandes quantités de données extraites et n’ont pas les coûts de formation élevés associés aux LLM récents. Néanmoins, à mesure que les modèles sous-jacents à l’IA générative progressent, la technologie de détection devra également suivre le rythme. De plus, les mécanismes de détection peuvent également nécessiter la coopération d’experts du domaine. En ce qui concerne l’audio synthétique, par exemple, il est nécessaire que les ingénieurs en apprentissage automatique collaborent avec des linguistes et d’autres chercheurs pour que ces outils soient efficaces, et le financement de la recherche devrait faciliter ces collaborations. COVID-19 a montré que les États du monde peuvent stimuler l’innovation qui peut aider à surmonter les crises en cas de besoin. Et les gouvernements ont un rôle à jouer pour garantir que le public est protégé contre les contenus d’IA potentiellement dangereux – investir dans la détection des sorties d’IA génératives est un moyen d’y parvenir. pl_facebook_pixel_args = []; pl_facebook_pixel_args.userAgent = navigator.userAgent; pl_facebook_pixel_args.language = navigator.language; if ( document.referrer.indexOf( document.domain ) < 0 ) pl_facebook_pixel_args.referrer = document.referrer; !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq( 'consent', 'revoke' ); fbq( 'init', "394368290733607" ); fbq( 'track', 'PageView', pl_facebook_pixel_args ); if ( typeof window.__tcfapi !== 'undefined' ) { window.__tcfapi( 'addEventListener', 2, function( tcData, listenerSuccess ) { if ( listenerSuccess ) tcData.eventStatus === 'tcloaded' ) __tcfapi( 'getCustomVendorConsents', 2, function( vendorConsents, success ) if ( ! vendorConsents.hasOwnProperty( 'consentedPurposes' ) ) return; const consents = vendorConsents.consentedPurposes.filter( function( vendorConsents ) return 'Create a personalised ads profile' === vendorConsents.name; ); if ( consents.length === 1 ) fbq( 'consent', 'grant' ); ); }); }
Source link -57