Customize this title in frenchL’un des « parrains » de l’IA déclare que les inquiétudes que la technologie pourrait constituer une menace pour l’humanité sont « absurdement ridicules »

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Yann LeCun dit que les inquiétudes selon lesquelles l’IA pourrait constituer une menace pour l’humanité sont « absurdement ridicules ».
  • Les commentaires de LeCun ont contré les craintes croissantes que l’IA se développe trop rapidement.
  • Il faisait partie d’une équipe qui a remporté le prix Turing en 2018 pour ses percées dans l’apprentissage automatique.

Un expert en intelligence artificielle a déclaré que les inquiétudes selon lesquelles la technologie pourrait constituer une menace pour l’humanité sont « absurdement ridicules ».

« Est-ce que l’IA va conquérir le monde ? Non, c’est une projection de la nature humaine sur des machines », a déclaré Yann LeCun. Il a fait ce commentaire lors d’un événement presse à Paris mardi, qui a été rapporté par BBC News.

Le soi-disant « parrain » de l’IA faisait partie de l’équipe de trois personnes avec Yoshua Bengio et Geoffrey Hinton qui a remporté le prix Turing en 2018 pour ses percées dans l’apprentissage automatique. Il est maintenant le scientifique en chef de l’IA de Meta.

LeCun a déclaré lors de l’événement de mardi qu’il n’y avait « aucun doute » qu’à l’avenir, les ordinateurs deviendraient plus intelligents que les humains, mais que c’était dans des années, voire des décennies, selon la BBC.

La récente prolifération de l’IA générative, qui comprend des chatbots comme ChatGPT et Bing et des créateurs d’images comme DALL-E et Midjourney, a conduit à un débat houleux parmi les experts sur la question de savoir si elle se développe trop rapidement. Les préoccupations incluent la capacité de l’IA à développer des préjugés et à « halluciner », ainsi que son rôle dans la propagation de la désinformation et des images deepfake.

Certains leaders technologiques, scientifiques et personnalités influentes du monde des affaires ont appelé à une réglementation mondiale plus stricte de l’IA et à une plus grande concentration sur l’éthique. Le collaborateur de LeCun, Bengio, Elon Musk et le cofondateur d’Apple, Steve Wozniak, figuraient parmi les signataires d’une lettre ouverte plus tôt cette année demandant une pause de six mois sur le développement avancé de l’IA.

De nombreux experts de l’IA ont également signé le mois dernier une déclaration du Center for AI Safety, selon laquelle « l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».

Dans une enquête menée auprès des meilleurs PDG par le Chief Executive Leadership Institute de Yale, rapportée par CNN, 34 % des personnes interrogées ont déclaré que l’IA pourrait « détruire l’humanité » dans 10 ans et 8 % ont dit que cela pourrait même arriver dans les cinq ans. Cinquante-huit pour cent ont déclaré qu’ils ne pensaient pas que la catastrophe potentielle de l’IA était surestimée.

Certaines personnalités influentes du monde de la technologie ont cependant salué les nombreux cas d’utilisation de l’IA et mis en garde contre l’introduction d’un moratoire sur son développement. Bill Gates, par exemple, a déclaré que même si l’IA suscitait des inquiétudes compréhensibles, elle pourrait avoir des effets positifs majeurs sur les soins de santé, l’éducation et la lutte contre la crise climatique. Marc Andreessen a mis en garde contre « une véritable panique morale à propos de l’IA » et a déclaré que les gens ont une « obligation morale » d’encourager son développement.

LeCun a déclaré mardi que ce serait une erreur de garder la recherche sur l’IA « sous clé ». L’IA deviendrait de plus en plus fiable et sûre, a-t-il déclaré.

Il a ajouté que les inquiétudes concernant l’IA étaient exagérées et que si les gens réalisaient que la technologie n’était pas sûre, ils ne devraient pas la construire, selon BBC News.



Source link -57