Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
SAN FRANCISCO (AP) — Geoffrey Hintonun informaticien primé connu comme le « parrain de l’intelligence artificielle », réfléchit sérieusement aux fruits de son travail.
Hinton a aidé à lancer des technologies d’intelligence artificielle essentielles à une nouvelle génération de chatbots hautement performants tels que ChatGPT. Mais dans des entretiens récents, il dit qu’il a récemment démissionné d’un poste de haut niveau chez Google spécifiquement pour partager ses inquiétudes quant au fait que le développement incontrôlé de l’IA pourrait constituer un danger pour l’humanité.
« J’ai soudainement changé d’avis sur la question de savoir si ces choses vont être plus intelligentes que nous », a-t-il déclaré dans une interview avec MIT Technology Review.. « Je pense qu’ils en sont très proches maintenant et qu’ils seront beaucoup plus intelligents que nous à l’avenir… Comment survivrons-nous à cela? »
Hinton n’est pas seul dans ses inquiétudes. Peu de temps après que la startup soutenue par Microsoft OpenAI a publié son dernier modèle d’IA appelé GPT-4 en mars, plus de 1 000 chercheurs et technologues ont signé une lettre appelant à une pause de six mois sur le développement de l’IA. car, ont-ils dit, cela pose «des risques profonds pour la société et l’humanité».
Voici un aperçu des principales préoccupations de Hinton concernant l’avenir de l’IA … et de l’humanité.
TOUT EST SUR LES RÉSEAUX DE NEURONES
Nos cerveaux humains peuvent résoudre des équations de calcul, conduire des voitures et garder une trace des personnages dans « Succession » grâce à leur talent natif pour organiser et stocker des informations et trouver des solutions à des problèmes épineux. Les quelque 86 milliards de neurones entassés dans nos crânes – et, plus important encore, les 100 000 milliards de connexions que ces neurones forgent entre eux – rendent cela possible.
En revanche, la technologie sous-jacente à ChatGPT comporte entre 500 milliards et un billion de connexions, a déclaré Hinton dans l’interview. Bien que cela semblerait le désavantager par rapport à nous, Hinton note que GPT-4, le dernier modèle d’IA d’OpenAI, en sait « des centaines de fois plus » que n’importe quel humain. Peut-être, suggère-t-il, qu’il a un « algorithme d’apprentissage bien meilleur » que le nôtre, ce qui le rend plus efficace pour les tâches cognitives.
L’IA PEUT DÉJÀ ÊTRE PLUS INTELLIGENTE QUE NOUS
Les chercheurs ont depuis longtemps noté que les réseaux de neurones artificiels prennent beaucoup plus de temps pour absorber et appliquer de nouvelles connaissances que les humains, car leur formation nécessite d’énormes quantités d’énergie et de données. Ce n’est plus le cas, soutient Hinton, notant que des systèmes comme GPT-4 peuvent apprendre de nouvelles choses très rapidement une fois correctement formés par les chercheurs. Ce n’est pas sans rappeler la façon dont un physicien professionnel formé peut envelopper son cerveau de nouvelles découvertes expérimentales beaucoup plus rapidement qu’un étudiant en sciences typique du secondaire.
Cela amène Hinton à la conclusion que les systèmes d’IA pourraient déjà nous déjouer. Non seulement les systèmes d’IA peuvent apprendre les choses plus rapidement, note-t-il, mais ils peuvent également partager des copies de leurs connaissances les uns avec les autres presque instantanément.
« C’est une forme d’intelligence complètement différente », a-t-il déclaré à la publication. « Une nouvelle et meilleure forme d’intelligence. »
GUERRES ET RUMEURS DE GUERRES
Que feraient des systèmes d’IA plus intelligents que l’homme ? Une possibilité troublante est que des individus, des groupes ou des États-nations malveillants puissent simplement les coopter pour servir leurs propres fins. Hinton est particulièrement préoccupé par le fait que ces outils pourraient être formés pour influencer les élections et même pour mener des guerres.
La désinformation électorale diffusée via les chatbots IA, par exemple, pourrait être la future version de la désinformation électorale diffusée via Facebook et d’autres plateformes de médias sociaux.
Et ce n’est peut-être que le début. « Ne pensez pas un seul instant que Poutine ne fabriquerait pas des robots hyper-intelligents dans le but de tuer des Ukrainiens », a déclaré Hinton dans l’article. « Il n’hésiterait pas.
UNE PÉNURIE DE SOLUTIONS
Ce qui n’est pas clair, c’est comment quelqu’un empêcherait une puissance comme la Russie d’utiliser la technologie de l’IA pour dominer ses voisins ou ses propres citoyens. Hinton suggère qu’un accord mondial similaire à la Convention sur les armes chimiques de 1997 pourrait être un bon premier pas vers l’établissement de règles internationales contre l’IA militarisée.
Bien qu’il convient également de noter que le pacte sur les armes chimiques n’a pas empêché ce que les enquêteurs ont découvert comme de probables attaques syriennes utilisant du chlore gazeux et l’agent neurotoxique sarin contre des civils en 2017 et 2018 pendant la guerre civile sanglante du pays.