Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Statut : 29/03/2023 17h51
Le développement rapide de l’intelligence artificielle a des critiques sur la scène. Plus de 1000 experts de la technologie et de la recherche – dont Elon Musk – exigent désormais une pause dans le développement de nouveaux modèles d’IA. Il faut d’abord des normes de sécurité.
Dans une lettre ouverte, des experts de la recherche, de la science et de l’industrie technologique ont appelé à une pause dans le développement de l’intelligence artificielle. La lettre de l’organisation à but non lucratif Future of Life indique que le temps devrait être utilisé pour créer un ensemble de règles pour la technologie. Des normes de sécurité doivent être établies pour le développement de l’IA afin d’éviter les dommages potentiels des technologies d’IA les plus risquées.
Plus de 1 000 personnes ont désormais signé la lettre, dont le co-fondateur d’Apple Steve Wozniak, le milliardaire technologique Elon Musk et des pionniers du développement de l’IA tels que Stuart Russel et Yoshua Bengio. Les concurrents de l’AI ChatGPT actuellement le plus connu font également partie des signataires.
Les risques sont actuellement incalculables
« Les systèmes d’IA dotés d’une intelligence qui rivalise avec les humains peuvent présenter de grands risques pour la société et l’humanité », indique la lettre. « Des systèmes d’IA puissants ne devraient être développés que lorsque nous sommes sûrs que leur impact est positif et que leurs risques sont gérables. »
Les soi-disant IA génératives telles que ChatGPT-4 ou DALL-E sont désormais si avancées que même les développeurs ne peuvent plus comprendre ou contrôler efficacement leurs programmes, dit-on. Cela pourrait inonder les canaux d’information de propagande et de contrevérités. Même les emplois qui ne consistent pas uniquement en un travail purement routinier et qui sont perçus par les gens comme épanouissants pourraient être rationalisés à l’aide de tels modèles d’IA.
La demande de pause de développement fait référence à l’IA de nouvelle génération, qui est encore plus puissante que ChatGPT-4. Vos développeurs doivent ajuster leur travail de manière vérifiable. Si cela ne se produit pas, les gouvernements devraient intervenir et ordonner un moratoire, exigent les signataires.
Attisez les peurs en appelant
La critique de l’appel est venue du professeur d’informatique Johanna Börklund de l’Université suédoise d’Umeå. « Il n’y a aucune raison de tirer le frein à main. »
Au lieu de cela, les exigences de transparence pour les développeurs devraient être renforcées. L’appel ne sert qu’à attiser les peurs.
Le chef d’OpenAI n’est pas parmi les signataires
ChatGPT et DALL-E sont développés par la société OpenAI, dans laquelle Microsoft détient une participation importante. Selon les organisateurs, le patron d’OpenAI, Sam Altman, n’a pas signé la lettre ouverte. Son entreprise n’a initialement pas répondu à une demande de commentaire de l’agence de presse Reuters.
L’entrepreneur technologique Musk a cofondé OpenAI il y a des années, mais a pris sa retraite après qu’Altman ait décidé de travailler principalement avec Microsoft.
Depuis l’introduction de ChatGPT en novembre, Microsoft et Google se sont lancés dans une course à la domination dans le domaine. Les nouvelles applications sont présentées en succession rapide. Des pays comme la Chine considèrent également l’IA comme un secteur stratégiquement important et veulent donner aux développeurs une grande liberté.
Récemment, les avertissements sur les dangers de l’IA ont augmenté
En Allemagne, l’association TÜV a salué la lettre ouverte. « L’appel montre la nécessité politique d’agir pour une réglementation juridique claire de l’intelligence artificielle », a expliqué Joachim Bühler, directeur général de l’association TÜV. C’est le seul moyen de maîtriser les risques de systèmes d’IA particulièrement puissants.
Des garde-corps légaux sont nécessaires pour l’utilisation de l’IA dans des domaines critiques pour la sécurité tels que la médecine ou dans les véhicules, où des dysfonctionnements pourraient avoir des conséquences fatales, a déclaré Bühler. « Cela crée de la confiance et favorise les offres innovantes au lieu de les freiner. »
Europol a également mis en garde contre les risques d’IA comme ChatGPT : « La capacité de ChatGPT à écrire des textes très réalistes en fait un outil utile pour le phishing », a-t-il déclaré. Les victimes sont amenées à donner des informations d’identification de compte. Europol a également mis en garde contre les campagnes de désinformation qui pourraient être lancées avec un minimum d’effort en utilisant l’IA. Les criminels pourraient également demander à l’IA d’écrire des logiciels malveillants pour eux.
Pause pour l’IA ? Elon Musk et d’autres experts en technologie appellent à un moratoire
Sebastian Schreiber, RH, 29/03/2023 17h48