Customize this title in french Un autre avertissement sur l’apocalypse de l’IA ? je ne l’achète pas | Ivana Bartoletti

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsUNDes outils comme ChatGPT sont partout. C’est la combinaison de la puissance de calcul et de la disponibilité des données qui a conduit à une montée en puissance de la technologie de l’IA, mais la raison pour laquelle des modèles tels que ChatGPT et Bard ont fait un éclaboussement aussi spectaculaire est qu’ils ont frappé nos propres maisons, avec environ 100 millions de personnes. les utilise actuellement.Cela a conduit à un débat public très tendu. Il est prévu qu’un quart de tous les emplois seront affectés d’une manière ou d’une autre par l’IA et certaines entreprises retiennent le recrutement pour voir quels emplois peuvent être automatisés. Les craintes concernant l’IA peuvent déplacer les marchés, comme nous l’avons vu hier lorsque les actions de Pearson ont chuté par crainte que l’IA ne perturbe ses activités. Et, au-dessus du débat quotidien, se profilent les avertissements parfois apocalyptiques sur les dangers à long terme des technologies d’IA – souvent de voix fortes et sans doute autoritaires appartenant à des cadres et des chercheurs qui ont développé ces technologies.Le mois dernier, des dirigeants de la science, de la technologie et des affaires ont signé une lettre demandant une pause dans le développement de l’IA. Et cette semaine, le chercheur pionnier en IA Geoffrey Hinton a déclaré qu’il craignait que l’IA ne devienne rapidement plus intelligente que l’humanité et ne soit facilement utilisée à des fins malveillantes.Alors, les gens ont-ils raison de brandir le spectre d’une destruction apocalyptique par l’IA ? A mon avis, non. Je suis d’accord qu’il y a des risques qui donnent à réfléchir. Mais les gens commencent à comprendre qu’il s’agit de systèmes socio-techniques. Autrement dit, pas seulement des outils neutres, mais un ensemble inextricable de code, de données, de paramètres subjectifs et de personnes. Les utilisations finales de l’IA et la direction dans laquelle elle se développe ne sont pas inévitables. Et aborder les risques de l’IA n’est pas simplement une question de « arrêter » ou de « continuer ».Des chercheurs tels que Joy Buolamwini, Ruha Benjamin et Timnit Gebru ont depuis longtemps souligné comment le contexte dans lequel les technologies d’IA sont produites et utilisées peut influencer ce que nous en sortons. Expliquer pourquoi les systèmes d’IA peuvent produire des résultats discriminatoires, tels qu’allouer moins de crédit aux femmes, ne pas reconnaître les visages noirs, déterminer à tort que les familles immigrées sont plus à risque de commettre une fraude (poussant beaucoup dans la misère). Ce sont des problèmes de société que nous reconnaissons déjà et qui montrent la nécessité pour la société de parvenir à un consensus sur la bonne direction de l’innovation technique, l’utilisation responsable de ces technologies et les contraintes qui devraient leur être imposées. »Le président Joe Biden veut une déclaration des droits pour répondre aux droits des personnes à l’ère de l’IA. » Photographie : Leah Millis/ReutersHeureusement, des pays du monde entier sont déjà aux prises avec ces problèmes. Les États-Unis, l’UE, l’Inde, la Chine et d’autres déploient des contrôles et révisent les approches réglementaires. Pendant ce temps, des normes mondiales émergent. Le président Joe Biden veut une déclaration des droits pour répondre aux droits des personnes à l’ère de l’IA, et l’ONU a annoncé un pacte numérique mondial pour garantir que les droits de l’homme existants puissent être respectés à l’ère numérique. Des campagnes mondiales telles que AUDRi font pression pour que le Digital Compact soit efficace dans le monde entier.Les entreprises sont conscientes de ces problèmes lorsqu’elles travaillent sur de nouveaux systèmes. OpenAI, la société derrière ChatGPT, les résume assez bien. Il reconnaît que, bien que beaucoup ait été fait pour éradiquer le racisme et d’autres formes de haine des réponses de ChatGPT, la manipulation et l’hallucination (ce qui signifie produire un contenu absurde ou mensonger, inventant essentiellement des choses) se produisent toujours. Je suis convaincu que les essais et les erreurs, ainsi que la recherche en plein essor dans ce domaine, seront utiles.De nouveaux problèmes spécifiques et inquiétants découlant des technologies de l’IA doivent également être résolus. Le plus grand risque auquel nous sommes confrontés est l’érosion potentielle de la démocratie et de la «vérité de terrain» à laquelle nous pourrions être confrontés avec la prolifération de contrefaçons profondes et d’autres informations erronées générées par l’IA. Qu’adviendra-t-il de notre discours public si nous ne sommes pas en mesure de faire confiance à des sources, des visages et des faits ?Bien qu’imparfaitement, le chien de garde italien de la confidentialité avait de bonnes raisons de baisser le pied et d’interdire temporairement ChatGPT. C’était une tentative de faire comprendre que même les technologies révolutionnaires doivent être soumises aux règles, comme tous les autres produits. Tout en appelant à de nouvelles lois, nous pouvons également commencer par appliquer celles que nous avons déjà. L’un d’eux est le Règlement général sur la protection des données (RGPD), souvent âprement condamné, mais le seul outil qui a fait respecter les droits des citoyens, ainsi que des travailleurs, à l’ère de l’IA et de la gestion algorithmique des embauches et des licenciements. La loi sur la protection de la vie privée doit peut-être être mise à jour, mais son rôle démontre l’importance de la réglementation. OpenAI a apporté quelques modifications afin que l’interdiction soit levée.Nous devons nous rappeler que l’IA présente également de grandes opportunités. Par exemple, un outil d’IA peut déterminer si les croissances anormales trouvées sur les tomodensitogrammes sont cancéreuses. L’année dernière, DeepMind a prédit la structure de presque toutes les protéines jusqu’à présent cataloguées par la science, relevant l’un des grands défis de la biologie qui avait bouleversé le monde pendant près de 50 ans.Il y a à la fois de l’excitation et de la peur à propos de cette technologie. Des scénarios apocalyptiques d’IA similaires à ceux décrits dans les films Terminator ne doivent pas nous aveugler sur une vision plus réaliste et pragmatique qui voit le bien de l’IA et aborde les risques réels. Des règles du jeu sont nécessaires, et des accords mondiaux sont indispensables si l’on veut passer d’un développement un peu aveugle de l’IA à une adoption responsable et démocratisée de ce nouveau pouvoir.

Source link -57