Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Andrew Ng, ancien de Google Brain, a déclaré que les grandes technologies exagèrent le risque que l’IA anéantisse les humains.
- Cela semble attaquer les leaders de l’IA tels que Demis Hassabis de DeepMind et Sam Altman d’OpenAI.
- Les plus grands noms de l’IA s’y rassemblent.
Certaines des plus grandes personnalités de l’intelligence artificielle se demandent publiquement si l’IA constitue réellement un risque d’extinction, après Le scientifique en IA Andrew Ng a déclaré que de telles affirmations étaient une pièce cynique de la part des Big Tech.
Andew Ngcofondateur de Google Brain, a suggéré à l’Australian Financial Review que les grandes technologies cherchaient à gonfler les craintes autour de l’IA pour leur propre bénéfice.
« Il existe certainement de grandes entreprises technologiques qui préféreraient ne pas avoir à rivaliser avec l’open source, elles suscitent donc la peur que l’IA conduise à l’extinction de l’humanité », a déclaré Ng. « Cela a été une arme pour les lobbyistes pour plaider en faveur d’une législation qui serait très préjudiciable à la communauté open source. »
Ng n’a pas cité de noms, mais les personnalités qui ont poussé cette ligne incluent Elon MuskSam Altman, ancien étudiant de Ng et cofondateur d’OpenAI, Demis Hassabis, cofondateur de DeepMind, Geoffrey Hinton, pionnier de l’IA et ancien collègue de Google, et Yoshua Bengio, informaticien.
Ces discussions autour de l’impact de l’IA sur la société ont pris le devant de la scène après l’arrivée d’outils d’IA générative effrayants et intelligents tels que ChatGPT.
Hinton, un Un informaticien anglo-canadien considéré comme l’un des parrains de l’IAa riposté sur Ng et a doublé.
« Andrew Ng prétend que l’idée selon laquelle l’IA pourrait nous faire disparaître est une conspiration de grande technologie », il a écrit dans un article sur X. « Un point de données qui ne correspond pas à cette théorie du complot est que j’ai quitté Google pour pouvoir parler librement de la menace existentielle. »
Scientifique en chef de l’IA de Meta Yann LeCunégalement connu comme parrain de l’IA pour son travail avec Hinton, s’est rangé du côté de Ng.
« Vous et Yoshua aidez par inadvertance ceux qui veulent mettre la recherche et le développement de l’IA sous clé et protéger leur entreprise en interdisant la recherche ouverte, le code open source et les modèles en libre accès », a-t-il écrit sur X à Hinton.
LeCun craint de plus en plus qu’une réglementation conçue pour étouffer les soi-disant risques d’extinction de l’IA puisse tuer la communauté open source en plein essor dans ce domaine. Il a prévenu ce week-end qu’« un petit nombre d’entreprises contrôleront l’IA » si leur tentative de capture réglementaire réussit.
Meredith Whittaker, présidente de l’application de messagerie Signal et conseiller en chef de l’AI Now Institute, a déclaré que ceux qui prétendaient que l’IA représentait un risque existentiel promouvaient une « idéologie quasi-religieuse » qui n’est « pas ancrée dans les preuves scientifiques ».
« Cette idéologie est exploitée par les Big Tech pour promouvoir leurs produits/consolider leur position », a écrit Whittaker sur X. Whittaker et d’autres soutiennent que les Big Tech profitent de l’alarmisme autour des risques hypothétiques pour détourner l’attention des problèmes plus immédiats du monde réel, tels que comme le vol de droits d’auteur et le chômage des travailleurs.