Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Elon Musk, Steve Wozniak et plus de 1 000 autres ont signé une lettre appelant à une pause sur les nouveaux modèles d’IA.
- L’essor rapide de ChatGPT et de la technologie l’aime montre à quel point il a un potentiel incroyable pour le meilleur et pour le pire.
- Prendre une pause dans le développement de l’IA permet de s’assurer qu’il est fait de manière responsable.
Il y a de précieux petits cofondateurs d’Apple, Steve Wozniak et Elon Musk, d’accord ces jours-ci, à une exception notable près : l’IA doit ralentir.
Wozniak, Musk et plus de 1 000 autres chefs d’entreprise ont signé une lettre demandant des garde-fous et une pause sur la formation des modèles d’IA à mesure que la technologie devient plus puissante. La lettre soutient que de puissants modèles d’IA comme le GPT-4 d’OpenAI « ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables ».
Bien sûr, ce n’est pas la première fois que les gens demandent des garde-fous pour l’IA. Cependant, à mesure que l’IA est devenue plus sophistiquée, les appels à la prudence se multiplient à leur tour.
« C’est une très bonne idée de ralentir le développement de nouveaux modèles car si l’IA finit par être bonne pour nous, alors il n’y a pas de mal à attendre des mois ou des années, nous arriverons de toute façon au point final », a déclaré James Grimmelmann, professeur de numérique. et le droit de l’information à l’Université Cornell. « Si c’est nocif, alors nous nous sommes simplement donné plus de temps pour élaborer des stratégies sur les meilleures façons de réagir et de comprendre comment le combattre. »
Autrement dit, Wozniak et les autres leaders technologiques ont raison. L’IA a été jetée dans la nature, laissée à se développer sans surveillance et de plus en plus forte chaque jour. Mais maintenant, nous avons la chance de le ralentir, donnant le potentiel de mieux cultiver la technologie pour le bien de la société.
La montée en puissance de ChatGPT montre les dangers potentiels d’aller trop vite
Lorsque le blockbuster ChatGPT d’OpenAI est sorti pour des tests publics en novembre de l’année dernière, il a fait sensation. Naturellement, les gens ont commencé à pousser les capacités de ChatGPT. Il est vite devenu évident à quel point cela pouvait perturber la société. Il a commencé à réussir des examens de licence médicale. Il a donné des instructions sur la façon de fabriquer des bombes (après un peu d’incitation supplémentaire). Il s’est créé un alter ego.
Plus nous utilisons l’IA – en particulier les outils d’IA dits génératifs comme ChatGPT ou l’outil de conversion de texte en image Stable Diffusion – plus nous voyons ses défauts, son potentiel de création de biais et à quel point nous, les humains, ne sommes pas préparés à exercer son pouvoir.
Hasan Chowdhury d’Insider a écrit que l’IA a le potentiel « d’être un turbocompresseur qui accélère la propagation de nos défauts ». Comme les médias sociaux, il peut exploiter le meilleur et le pire de l’humanité. Mais contrairement aux médias sociaux, l’IA sera beaucoup plus intégrée dans la vie des gens.
ChatGPT et d’autres produits d’IA similaires ont déjà tendance à déformer les informations et à faire des erreurs, ce dont Wozniak a parlé publiquement. Il est sujet aux hallucinations, et même le PDG d’OpenAI, Sam Altman, a admis que le modèle de son entreprise pouvait cracher des réponses racistes, sexistes et biaisées. Stable Diffusion s’est heurté à des problèmes de droits d’auteur et a été accusé de voler des œuvres d’art à des artistes numériques.
Au fur et à mesure que l’IA s’intègre dans une technologie plus quotidienne, nous risquons d’apporter plus de désinformation dans le monde, à plus grande échelle. Même des tâches apparemment bénignes pour l’IA, comme aider à planifier des vacances, peuvent ne pas produire de résultats fiables.
Il est difficile de se développer de manière responsable lorsque le marché libre exige d’évoluer rapidement
Pour être clair, l’IA, en particulier l’IA générative comme ChatGPT, est une technologie incroyablement transformatrice. Il n’y a rien de mal à développer des machines qui effectuent une grande partie du travail fastidieux que les gens détestent.
Même si la technologie a créé une crise existentielle au sein de la main-d’œuvre, elle a également été célébrée comme un outil d’égalisation pour l’industrie technologique. Il n’y a également aucune preuve que ChatGPT soit prêt à mener une rébellion de robots dans les prochaines années.
Et de nombreuses entreprises d’IA ont des éthiciens soucieux de développer la technologie de manière responsable. Mais une équipe dédiée à la création d’IA en toute sécurité ne peut pas faire son travail si la précipitation à sortir des produits est placée plus haut que son impact sociétal.
La vitesse semble également être le nom du jeu. OpenAI a compris que s’il bouge assez rapidement, il peut éloigner la concurrence et devenir le leader dans le domaine de l’IA générative. Cela a poussé Microsoft, Google et à peu près tout le monde à emboîter le pas.
La publication de modèles d’IA puissants avec lesquels le public peut jouer avant qu’ils ne soient prêts n’améliore pas la technologie. Les gens ne peuvent pas trouver les meilleurs cas d’utilisation de l’IA car les développeurs doivent éteindre les incendies créés par leur technologie et les utilisateurs sont distraits par le bruit.
Tout le monde ne veut pas une pause de l’IA
La lettre a ses détracteurs, qui disent qu’elle rate la cible.
Emily M. Bender, professeur à l’Université de Washington dit dans un fil Twitter Musk et les autres leaders technologiques cèdent au cycle de battage médiatique en se concentrant sur la puissance de l’IA et non sur les dégâts réels qu’elle peut causer.
Grimmelman ajoute que les leaders technologiques signant la lettre « sont en retard à la fête » et ont ouvert une boîte de Pandore de complications potentielles pour eux-mêmes.
« Maintenant qu’ils ont signé la lettre, ils ne peuvent pas se retourner et dire que les mêmes politiques ne peuvent pas être faites pour d’autres technologies comme les voitures autonomes », a-t-il déclaré.
Un moratoire ou plus de réglementation peut ou non se concrétiser. Mais la conversation a maintenant tourné.
L’IA existe depuis des décennies; ça peut attendre encore quelques années.