Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Dans une interview à la BBC, publiée mercredi 31 mai, l’un des soi-disant « parrains » de l’intelligence artificielle (IA), le professeur Yoshua Bengio s’est dit préoccupé par le fait que de « mauvais acteurs » s’emparent de la technologie qui devient de plus en plus sophistiqué et puissant. Cela survient alors que plusieurs personnalités éminentes de l’industrie ont tiré la sonnette d’alarme sur la rapidité avec laquelle l’IA devient accessible au public et ont appelé les législateurs et les gouvernements à la réglementer.
Bengio se sent « perdu » par le travail de sa vie
Lors de l’interview avec le média basé au Royaume-Uni, Bengio a déclaré qu’il se sentait « perdu » par le travail de sa vie. « C’est un défi, émotionnellement parlant, pour les gens qui sont à l’intérieur (du secteur de l’IA) », a déclaré le deuxième des trois soi-disant « parrains » de l’IA, qui a tiré la sonnette d’alarme.
Bengio est également connu pour sa contribution significative à l’industrie et a soulevé des inquiétudes quant à la vitesse à laquelle elle se développe. Il a ajouté: « On pourrait dire que je me sens perdu. Mais vous devez continuer et vous devez vous engager, discuter, encourager les autres à réfléchir avec vous.
Le professeur canadien de l’Université de Montréal était également l’un des deux membres de l’industrie à avoir signé deux déclarations récentes appelant à la prudence quant aux risques futurs de l’IA.
Il a également admis que ces préoccupations l’avaient affecté personnellement, car le travail de sa vie qui lui donnait autrefois une direction et un sentiment d’identité n’était plus clair pour lui.
Qui sont ces « mauvais acteurs » ?
Parlant des « mauvais acteurs » qui pourraient mettre la main sur la technologie, le professeur canadien a déclaré à la BBC que cela pourrait être « des militaires, cela pourrait être des terroristes, cela pourrait être quelqu’un de très en colère, psychotique ». Il a ajouté: « Et donc s’il est facile de programmer ces systèmes d’IA pour leur demander de faire quelque chose de très mauvais, cela pourrait être très dangereux. »
Des inquiétudes similaires ont été soulevées par le « parrain » de l’IA, le Dr Geoffrey Hinton, qui a confirmé plus tôt ce mois-ci qu’il avait quitté son poste chez Google et a parlé des « dangers » de la technologie qu’il a aidé à développer, dans une interview séparée. « Je me console avec l’excuse normale : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », a déclaré Hinton au New York Times.
Bengio appelle à plus de réglementations
Bengio a fait écho à des appels similaires selon lesquels les entreprises qui construisent de puissants produits d’IA doivent être surveillées par le gouvernement et a déclaré à la BBC qu’elles devraient être auditées. « Les gouvernements doivent suivre ce qu’ils font, ils doivent pouvoir les auditer, et c’est juste la chose minimale que nous faisons pour tout autre secteur comme la construction d’avions, de voitures ou de produits pharmaceutiques », a déclaré le professeur canadien aux médias britanniques. sortie.
Il a ajouté que même les personnes proches de ces systèmes avancés devraient avoir une sorte de certification ou de « formation éthique » que les informaticiens ne reçoivent pas.
L’interview intervient également un jour après que les meilleurs chercheurs et leaders de l’industrie de l’IA au monde, dont Hinton et Bengio ainsi que le PDG d’OpenAI, Sam Altman, ont déclaré: «L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que que les pandémies et la guerre nucléaire.
Plus tôt cette année, une lettre ouverte signée par certaines des mêmes personnes soutenant l’avertissement en 22 mots appelait à une « pause » de six mois dans le développement de l’IA, citant les « risques profonds pour la société et l’humanité » que pose l’IA.
Tu peux maintenant écrire pour wionews.com et faire partie de la communauté. Partagez vos histoires et opinions avec nous ici.