Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Les prophètes de malheur veulent nous faire croire qu’un coup d’État en matière d’IA pourrait se produire, mais les pionniers de l’industrie s’y opposent.
- Beaucoup ignorent les risques existentiels supposés de l’IA, les qualifiant de distraction.
- Ils affirment que les grandes entreprises technologiques utilisent ces craintes pour protéger leurs propres intérêts.
Vous avez beaucoup entendu parler de l’IA anéantissant l’humanité. Des parrains de l’IA aux principaux PDG, il y a eu un flot apparemment incessant d’avertissements sur le fait que l’IA sera notre ennemie et non notre amie.
Voici le problème : non seulement un coup d’État en matière d’IA est improbable, mais l’idée d’un tel coup d’État est commodément utilisée pour vous distraire de problèmes plus urgents, selon de nombreux pionniers de l’IA qui se sont récemment prononcés.
Deux experts, dont le scientifique en chef de Meta en IA, ont rejeté ces inquiétudes comme étant des distractions, pointant du doigt les entreprises technologiques qui tentent de protéger leurs propres intérêts.
Le parrain de l’IA, Yann LeCun, scientifique en chef de l’IA chez Meta, a accusé certains des fondateurs les plus éminents de l’IA de « alarmisme » et « lobbying massif des entreprises » pour servir leurs propres intérêts. Il a déclaré qu’une grande partie de la rhétorique apocalyptique visait à garder le contrôle de l’IA entre les mains de quelques-uns.
« Altman, Hassabis et Amodei sont actuellement ceux qui font un lobbying massif auprès des entreprises », a écrit LeCun. « Ce sont eux qui tentent de s’emparer de la réglementation de l’industrie de l’IA. »
Demis Hassabis de Google DeepMind a déclaré à CNBC qu’il n’était pas d’accord avec de nombreuses remarques de LeCun, ajoutant qu’il était important d’entamer tôt la conversation sur la régulation de la superintelligence.
Les représentants de Sam Altman d’OpenAI et de Dario Amodei d’Anthropic n’ont pas immédiatement répondu à la demande de commentaires d’Insider.
Andrew Ngprofesseur adjoint à l’Université de Stanford et cofondateur de Google Brain, a adopté un point de vue similaire ce week-end.
Il a déclaré à l’Australian Financial Review que certaines entreprises utilisaient les craintes suscitées par l’IA pour affirmer leur propre domination du marché.
Le média a rapporté que certaines grandes entreprises technologiques ne voulaient pas rivaliser avec les alternatives open source et espéraient écraser la concurrence avec une réglementation stricte déclenchée par les craintes d’extinction de l’IA.
Plusieurs experts en IA contestent depuis longtemps certains des avertissements les plus farfelus.
Le fait que les déclarations publiées par divers centres – et soutenues par d’éminents dirigeants d’IA – aient été particulièrement vagues n’a pas aidé, laissant beaucoup de personnes ayant du mal à donner un sens à ces affirmations dramatiques.
Une déclaration de 23 mots soutenue par les PDG d’OpenAI, DeepMind et Anthropic a établi un lien largement inexpliqué entre l’essor de l’IA avancée et les menaces pour l’existence humaine comme la guerre nucléaire et les pandémies.
Le moment choisi pour cette réaction, à la veille du sommet britannique sur la sécurité de l’IA et à la suite du récent décret de Biden sur l’IA, est également significatif.
De plus en plus d’experts avertissent que les préoccupations des gouvernements face aux risques existentiels de l’IA ont la priorité sur les menaces plus immédiates.
Aidan Gomez, auteur d’un document de recherche qui a contribué à créer la technologie derrière les chatbots, a déclaré au Guardian que même si les menaces plus existentielles posées par l’IA devraient être « étudiées et poursuivies », elles constituaient une « menace réelle pour le débat public ».
« Je pense qu’en termes de risque existentiel et de politique publique, ce n’est pas une conversation productive », a-t-il déclaré. « En ce qui concerne la politique publique et les domaines dans lesquels nous devrions concentrer l’attention du secteur public – ou essayer d’atténuer les risques pour la population civile – je pense que cela constitue une distraction, loin des risques qui sont beaucoup plus tangibles et immédiats. »
Merve Hickok, le président du Centre pour l’IA et la politique numérique, a soulevé des préoccupations similaires concernant l’accent mis par le sommet britannique sur la sécurité de l’IA sur le risque existentiel.
Hickok a déclaré à Insider que même si l’événement « est initialement né d’un engagement à promouvoir les valeurs démocratiques », il est désormais « étroitement axé sur la sécurité et le risque existentiel », ce qui risque de mettre de côté d’autres préoccupations urgentes de la société civile.
Dans une lettre adressée au Premier ministre britannique Rishi Sunak, le centre a encouragé le gouvernement britannique à inclure des sujets plus urgents « tels que la partialité, l’équité, la justice et la responsabilité » à l’ordre du jour de la réunion.
Le gouvernement britannique a déclaré que l’événement, qui sera ouvert par secrétaire à la technologie Michelle Donelanexposerait sa « vision pour que la sûreté et la sécurité soient au cœur des avancées de l’IA »afin de permettre les énormes opportunités que cela apportera.