Customize this title in frenchLes deepfakes d’IA pourraient « saper » l’ensemble du système judiciaire en tant que « problème clé » identifié

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Royal Courts of Justice de Londres (Image : Getty)Les nouvelles technologies d’IA risquent de « saper » le système judiciaire et changeront la manière dont les procédures judiciaires sont menées, ont déclaré des experts. La disponibilité de plus en plus répandue de fausses images, vidéos et audio changera la façon dont les preuves sont perçues dans une salle d’audience et pourrait entraîner une rupture de confiance dans l’ensemble du système judiciaire, ont-ils averti.Alors que des outils de retouche photo comme Photoshop existent depuis un certain temps, la disponibilité croissante d’outils deepfake basés sur l’IA permet à toute personne disposant d’un ordinateur de générer artificiellement non seulement des images convaincantes, mais également des enregistrements audio et vidéo.Les exemples viraux récents incluent de fausses images de Donald Trump arrêté de force, le pape portant une énorme doudoune blanche et un faux enregistrement audio d’anciens présidents américains jouant à Call of Duty.La préoccupation évidente peut être que ces techniques pourraient être utilisées pour créer de fausses preuves avec lesquelles condamner les gens.Cependant, bien que ce soit quelque chose dont nous devrions être conscients, Burkhard Schafer, professeur de théorie juridique computationnelle à la faculté de droit d’Édimbourg, a déclaré à Express.co.uk, une plus grande menace est que la technologie deepfake fonctionne pour inciter les théoriciens du complot et les détectives de fauteuil qui refusent d’accepter les résultats des poursuites pénales.Il a déclaré: « Alors qu’une grande partie du débat public s’est concentrée sur le danger que les contrefaçons profondes puissent introduire des preuves trompeuses (popularisées par des séries télévisées telles que The Capture de la BBC), le danger beaucoup plus grand à mon avis est le » déni général « même des informations numériques véridiques images ou clips.Comme l’a expliqué Nick Brett, fondateur du cabinet d’avocats Brett Wilson LLP, une telle preuve nécessite une «provenance».Donc, j’avais aujourd’hui un an quand j’ai découvert que cette image du pape François dans une doudoune avait été générée par l’IA… Première image d’IA que j’ai été trompée par ������.Je rirais si je n’étais pas si horrifié par les possibilités très réelles de l’IA dans le futur. Gros YIKES. https://t.co/2GV9q3qIGG pic.twitter.com/iqEgC6aqFr— Manning Franks (@Cine_Mann) 27 mars 2023 Il a déclaré à Express.co.uk: «Lorsque la Couronne s’appuie sur des preuves photographiques, par exemple, cette preuve est produite par un témoin qui détaille comment et quand la photographie a été prise. »S’il y avait une raison de contester l’authenticité de la photographie, le témoin serait alors tenu de se présenter au tribunal pour être contre-interrogé sur la question. »Le plus gros problème est donc de savoir comment les procès sont perçus en dehors des tribunaux, étant donné la facilité avec laquelle il est possible de fabriquer de fausses preuves et de les diffuser en ligne.M. Schafer a déclaré: «Le plus grand risque que je vois réside dans la manière dont ces procédures judiciaires sont ensuite analysées, rapportées ou discutées en dehors de la salle d’audience. »Des détectives Internet autoproclamés, souvent anonymes, parcourant des clips et des images du procès, mais sortis de leur contexte, puis « réfutés » avec une analyse techniquement semblante mais surtout idiote, ignorant souvent que l’image qu’ils regardent sera une copie d’une copie d’une copie, ayant souvent changé de format, et non celle que le jury a vue.Il a ajouté : « Cela, je le vois de plus en plus souvent, et cela peut avoir pour effet de saper la confiance dans le système judiciaire et la loi. Ici, nous devons trouver de nouvelles façons de communiquer au public ce qui s’est passé lors des procès, leur donner accès à des analyses et des informations de haute qualité.LIRE LA SUITE: « Les vautours d’Internet ont besoin d’être confrontés à la réalité après l’affaire Nicola Bulley » [COMMENT]Cela fait le jeu de personnalités puissantes qui souhaitent peut-être alimenter les théories du complot et détourner le blâme d’eux-mêmes.Cependant, les outils existent pour aider à réprimer les fausses images diffusées en ligne qui pourraient saper le système judiciaire.Matt Moynahan, PDG de la société de cybersécurité OneSpan, a déclaré à Express.co.uk: «Notre société travaille avec des banques au fil des ans, depuis qu’elles sont passées à la banque numérique, et ce que nous faisons, c’est avoir une capacité pour une banque et un utilisateur final. être lié en toute sécurité au niveau de l’utilisateur final, puis d’auditer tout ce qui se passe entre cette banque et un utilisateur final. »Et puis vous prenez un hachage cryptographique de ces transactions, leur autorisation et leur signature. »Ce « hachage cryptographique » est un code unique qui vérifie la transaction bancaire, que M. Moynahan a décrite comme « presque comme créer un NFT de tout ».En appliquant des outils similaires aux éléments de preuve, les internautes pourront identifier immédiatement d’où proviennent les photos, les vidéos et l’audio, et s’ils sont susceptibles d’avoir été modifiés par l’IA ou d’autres programmes. Un visage de femme créé par l’IA, visant à ressembler à la femme « moyenne » (Image : Getty) Mais il reste des obstacles à l’introduction de cette technologie à une échelle suffisante pour résoudre le problème.M. Schafer a expliqué que le problème n’était pas tant la réglementation que la technologie et le financement : « Tout cela rend les preuves numériques plus coûteuses et plus lentes.« Les services médico-légaux numériques sont terriblement sous-financés, de plus en plus de données sont générées même pour les cas de routine, et de moins en moins de ressources sont là pour les analyser correctement. »Le principal problème est donc de savoir s’il existe l’infrastructure, l’expertise et les ressources nécessaires pour suivre l’IA, moins sa réglementation. »Il a ajouté : « Après avoir dit tout cela, nous devons faire attention à ne pas sous-estimer le bon sens des gens, ou la nouveauté de la technologie. »Les mêmes problèmes sont revenus encore et encore – certains des tout premiers cas d’utilisation de la photographie sont issus d’essais, et ils ont également immédiatement soulevé la question de la manipulation – c’était à la fin des années 1880. »Mais à mesure que les technologies deviennent plus familières, nous devenons plus aptes à repérer et à surmonter les problèmes impliqués.Faisant référence à la manipulation des fameuses photos de la « fée dansante », à la suppression notoire par Staline de Nikolai Yezhov des photographies et enfin à l’introduction de Photoshop dans le monde, le professeur a déclaré : « Dès que ces nouvelles technologies ont été mieux comprises, les inquiétudes ont disparu. ”

Source link -57