Customize this title in frenchLe problème des contrefaçons

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsMoney a existé pendant plusieurs milliers d’années, et dès le départ, la contrefaçon a été reconnue comme un crime très grave, qui appelle dans de nombreux cas la peine capitale parce qu’il sape la confiance dont dépend la société. Aujourd’hui, pour la première fois dans l’histoire, grâce à l’intelligence artificielle, il est possible pour n’importe qui de fabriquer des personnes contrefaites qui peuvent passer pour de vrais dans de nombreux nouveaux environnements numériques que nous avons créés. Ces personnes contrefaites sont les artefacts les plus dangereux de l’histoire humaine, capables de détruire non seulement les économies, mais aussi la liberté humaine elle-même. Avant qu’il ne soit trop tard (il est peut-être déjà trop tard), nous devons interdire à la fois la création de contrefaçons et la « transmission » de contrefaçons. Les sanctions pour l’une ou l’autre infraction devraient être extrêmement sévères, étant donné que la civilisation elle-même est en danger.C’est une terrible ironie que l’engouement actuel pour tromper les gens en leur faisant croire qu’ils interagissent avec une personne réelle est né de la proposition innocente d’Alan Turing en 1950 d’utiliser ce qu’il appelait « le jeu de l’imitation » (maintenant connu sous le nom de test de Turing) comme référence de la pensée réelle. Cela a engendré non seulement une industrie artisanale, mais une industrie de haute technologie généreusement financée, engagée dans la fabrication de produits qui tromperont même les interlocuteurs les plus sceptiques. Notre inclination naturelle à traiter tout ce qui semble nous parler raisonnablement comme une personne – adoptant ce que j’ai appelé la « position intentionnelle » – s’avère facile à invoquer et presque impossible à résister, même pour les experts. Nous allons tous être des canards assis dans un avenir immédiat.Le philosophe et historien Yuval Noah Harari, écrivant dans L’économiste en avril, a terminé son avertissement opportun sur la menace imminente de l’IA pour la civilisation humaine par ces mots :« Ce texte a été généré par un humain. Ou l’a-t-il?Ce sera bientôt impossible à dire. Et même si (pour le moment) nous sommes capables de nous enseigner mutuellement des méthodes fiables pour exposer les personnes contrefaites, le coût de ces deepfakes pour la confiance humaine sera énorme. Comment réagirez-vous si vos amis et votre famille vous posent des questions à chaque fois que vous essayez de converser avec eux en ligne ?Créer des personnes numériques contrefaites risque de détruire notre civilisation. La démocratie dépend du consentement éclairé (et non mal informé) des gouvernés. En permettant aux personnes, aux entreprises et aux gouvernements les plus puissants économiquement et politiquement de contrôler notre attention, ces systèmes nous contrôleront. Les contrefaçons, en nous distrayant, en nous déroutant et en exploitant nos peurs et nos angoisses les plus irrésistibles, nous conduiront à la tentation et, de là, à acquiescer à notre propre asservissement. Les contrefaçons nous inciteront à adopter des politiques et des convictions qui nous rendront vulnérables à encore plus de manipulations. Ou nous allons simplement éteindre notre attention et devenir des pions passifs et ignorants. C’est une perspective terrifiante.La principale innovation de conception de la technologie qui rend possible la perte de contrôle de ces systèmes est que, contrairement aux bombes nucléaires, ces armes peuvent se reproduire. L’évolution ne se limite pas aux organismes vivants, comme l’a démontré Richard Dawkins en 1976 dans Le gène égoïste. Les personnes contrefaites commencent déjà à nous manipuler pour que nous accoucher leur progéniture. Ils apprendront les uns des autres, et ceux qui sont les plus intelligents, les plus aptes, ne se contenteront pas de survivre ; ils vont se multiplier. L’explosion démographique des balais en L’apprenti sorcier a commencé, et nous ferions mieux d’espérer qu’il existe un moyen non magique de l’arrêter.Il existe peut-être un moyen d’au moins reporter et peut-être même d’éteindre cette évolution inquiétante, en empruntant au succès – limité mais impressionnant – de maintenir la fausse monnaie simplement dans la catégorie des nuisances pour la plupart d’entre nous (ou examinez-vous attentivement chaque billet de 20 $ que vous recevez ?).Comme le dit Harari, nous devons « rendre obligatoire pour l’IA de divulguer qu’il s’agit d’une IA ». Comment pourrions-nous faire cela? En adoptant un système de « filigrane » de haute technologie comme l’EURion Constellation, qui protège désormais la plupart des devises mondiales. Le système, bien qu’il ne soit pas infaillible, est extrêmement difficile et coûteux à maîtriser – cela n’en vaut pas la peine, pour presque tous les agents, même les gouvernements. Les informaticiens ont également la capacité de créer des motifs presque indélébiles qui crieront FAUX! dans presque toutes les conditions, tant que les fabricants de téléphones portables, d’ordinateurs, de téléviseurs numériques et d’autres appareils coopèrent en installant le logiciel qui interrompra tout faux message avec un avertissement. Certains informaticiens travaillent déjà sur de telles mesures, mais si nous n’agissons pas rapidement, elles arriveront trop tard pour nous éviter de nous noyer dans le flot de contrefaçons.Saviez-vous que les fabricants de scanners ont déjà installé des logiciels qui répondent à la Constellation EURion (ou autres filigranes) en interrompant toute tentative de numérisation ou de photocopie de monnaie légale ? La création de nouvelles lois dans ce sens nécessitera la coopération des principaux participants, mais ils peuvent être incités. Les mauvais acteurs peuvent s’attendre à des sanctions horribles s’ils se font prendre soit en désactivant les filigranes, soit en transmettant les produits de la technologie qui ont déjà été dépouillés d’une manière ou d’une autre de leurs filigranes. Les sociétés d’intelligence artificielle (Google, OpenAI et autres) qui créent des logiciels dotés de ces capacités de contrefaçon devraient être tenues responsables de toute utilisation abusive des produits (et des produits de leurs produits – rappelez-vous que ces systèmes peuvent évoluer par eux-mêmes). Cela maintiendra les entreprises qui créent ou utilisent l’IA – et leurs souscripteurs d’assurance responsabilité civile – très agressifs pour s’assurer que les gens peuvent facilement savoir quand ils conversent avec l’un de leurs produits d’IA.Je ne suis en faveur de la peine capitale pour aucun crime, mais il serait rassurant de savoir que de grands dirigeants, ainsi que leurs techniciens, risquaient de passer le reste de leur vie en prison en plus de payer des milliards de dédommagement pour toute violation ou tout préjudice causé. Et les lois sur la responsabilité stricte, supprimant la nécessité de prouver la négligence ou l’intention malveillante, les garderaient sur leurs gardes. Les avantages économiques de l’IA sont importants, et le prix de leur partage devrait être de prendre le risque à la fois de condamnation et de faillite pour ne pas avoir respecté les obligations éthiques liées à son utilisation.Il sera difficile, voire impossible, de nettoyer la pollution de nos moyens de communication qui s’est déjà produite, grâce à la course aux armements des algorithmes qui propage l’infection à un rythme alarmant. Une autre pandémie approche, attaquant cette fois les fragiles systèmes de contrôle de notre cerveau, à savoir notre capacité à raisonner les uns avec les autres, que nous avons utilisés si efficacement pour nous maintenir relativement en sécurité au cours des derniers siècles.Le moment est venu d’insister pour que toute personne qui pense même à contrefaire des gens se sente honteuse – et dûment dissuadée de commettre un tel acte de vandalisme antisocial. Si nous faisons passer le mot maintenant que de tels actes seront contraires à la loi dès que nous pourrons l’organiser, les gens n’auront aucune excuse pour persister dans leurs activités. De nos jours, de nombreux membres de la communauté de l’IA sont si désireux d’explorer leurs nouveaux pouvoirs qu’ils ont perdu de vue leurs obligations morales. Nous devrions leur rappeler, aussi grossièrement que nécessaire, qu’ils mettent en péril la liberté future de leurs proches, et de nous tous.

Source link -57