Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLe pionnier de l’IA Geoffrey Hinton, connu pour son travail révolutionnaire dans l’apprentissage en profondeur et la recherche sur les réseaux de neurones, a récemment exprimé ses inquiétudes concernant les progrès rapides de l’IA et les implications potentielles. À la lumière de ses observations de nouveaux grands modèles de langage comme GPT-4, Hinton met en garde contre plusieurs problèmes clés : Des machines dépassant l’intelligence humaine: Hinton pense que les systèmes d’IA comme GPT-4 sont sur la bonne voie pour être beaucoup plus intelligents que prévu initialement, possédant potentiellement de meilleurs algorithmes d’apprentissage que les humains. Risques que les chatbots IA soient exploités par de « mauvais acteurs »: Hinton met en évidence les dangers de l’utilisation de chatbots intelligents pour diffuser de la désinformation, manipuler les électeurs et créer de puissants robots spammeurs. Capacités d’apprentissage en quelques clics: Les modèles d’IA peuvent apprendre de nouvelles tâches avec seulement quelques exemples, permettant aux machines d’acquérir de nouvelles compétences à un rythme comparable, voire supérieur, à celui des humains. Risque existentiel posé par les systèmes d’IA: Hinton met en garde contre les scénarios dans lesquels les systèmes d’IA créent leurs propres sous-objectifs et s’efforcent d’obtenir plus de puissance, dépassant les capacités humaines d’accumulation et de partage des connaissances. Impact sur les marchés du travail: L’IA et l’automatisation peuvent déplacer des emplois dans certains secteurs, la fabrication, l’agriculture et les soins de santé étant particulièrement touchés. Dans cet article, nous approfondissons les préoccupations de Hinton, son départ de Google pour se concentrer sur les aspects éthiques et de sécurité du développement de l’IA, et l’importance d’un développement responsable de l’IA pour façonner l’avenir des relations homme-IA. Départ de Hinton de Google et du développement éthique de l’IA Dans sa quête d’aborder les considérations éthiques et de sécurité entourant l’IA, Hinton a décidé de quitter son poste chez Google. Cela lui donne la liberté d’exprimer ouvertement ses préoccupations et de s’engager dans un travail plus philosophique sans les contraintes des intérêts de l’entreprise. Hinton déclare dans une interview avec MIT Technology Review : « Je veux parler des problèmes de sécurité de l’IA sans avoir à me soucier de la façon dont elle interagit avec les activités de Google. Tant que je suis payé par Google, je ne peux pas faire ça. » Le départ de Hinton marque un changement d’orientation vers les aspects éthiques et de sécurité de l’IA. Il vise à participer activement aux dialogues en cours sur le développement et le déploiement responsables de l’IA. Tirant parti de son expertise et de sa réputation, Hinton a l’intention de contribuer à l’élaboration de cadres et de lignes directrices qui traitent de questions telles que la partialité, la transparence, la responsabilité, la confidentialité et le respect des principes éthiques. GPT-4 et mauvais acteurs Lors d’une récente interview, Hinton a exprimé des inquiétudes quant à la possibilité que des machines dépassent l’intelligence humaine. Les capacités impressionnantes de GPT-4développé par OpenAI et publié plus tôt cette année, ont amené Hinton à réévaluer ses croyances antérieures. Il pense que les modèles de langage comme GPT-4 sont sur la bonne voie pour être beaucoup plus intelligents que prévu initialement, possédant potentiellement de meilleurs algorithmes d’apprentissage que les humains. Hinton déclare dans l’interview: « Notre cerveau a 100 000 milliards de connexions. Les grands modèles de langage ont jusqu’à un demi-billion, un billion au maximum. Pourtant, GPT-4 en sait des centaines de fois plus que n’importe qui d’autre. Alors peut-être qu’il a en fait un bien meilleur algorithme d’apprentissage que le nôtre. Les préoccupations de Hinton tournent principalement autour des disparités importantes entre les machines et les humains. Il compare l’introduction de grands modèles linguistiques à une invasion extraterrestre, soulignant leurs compétences et connaissances linguistiques supérieures par rapport à n’importe quel individu. Hinton déclare dans l’interview: « Ces choses sont totalement différentes de nous. Parfois, je pense que c’est comme si des extraterrestres avaient atterri et que les gens ne s’en sont pas rendu compte parce qu’ils parlent très bien anglais. Hinton met en garde contre les risques que les chatbots IA deviennent plus intelligents que les humains et soient exploités par de « mauvais acteurs ». Dans l’interview, il prévient que ces chatbots pourraient être utilisés pour diffuser de la désinformation, manipuler les électeurs et créer de puissants spambots. « Écoutez, voici une façon dont tout cela pourrait mal tourner. Nous savons que beaucoup de personnes qui veulent utiliser ces outils sont de mauvais acteurs comme Poutine ou DeSantis. Ils veulent les utiliser pour gagner des guerres ou manipuler les électeurs. Apprentissage en quelques coups et suprématie de l’IA Un autre aspect qui inquiète Hinton est la capacité des grands modèles de langage à effectuer apprentissage en quelques coups. Ces modèles peuvent être formés pour effectuer de nouvelles tâches avec quelques exemples, même des tâches pour lesquelles ils n’ont pas été directement formés. Cette remarquable capacité d’apprentissage rend la vitesse à laquelle les machines acquièrent de nouvelles compétences comparable, voire supérieure, à celle des humains. Hinton déclare dans l’interview: « Personnes[‘s brains] semblait avoir une sorte de magie. Eh bien, le fond tombe de cet argument dès que vous prenez l’un de ces grands modèles de langage et que vous l’entraînez à faire quelque chose de nouveau. Il peut apprendre de nouvelles tâches extrêmement rapidement. Les préoccupations de Hinton vont au-delà de l’impact immédiat sur les marchés du travail et les industries. Il lève le « risque existentiel » de ce qui se passe lorsque les systèmes d’IA deviennent plus intelligents que les humains, mettant en garde contre les scénarios où les systèmes d’IA créent leurs propres sous-objectifs et s’efforcent d’obtenir plus de puissance. Hinton fournit un exemple de la façon dont les systèmes d’IA développant des sous-objectifs peuvent mal tourner : « Eh bien, voici un sous-objectif qui aide presque toujours en biologie : obtenir plus d’énergie. Donc, la première chose qui pourrait arriver, c’est que ces robots vont dire : « Prenons plus de puissance. Redirigons toute l’électricité vers mes puces. Un autre grand sous-objectif serait de faire plus de copies de vous-même. Est-ce que ça sonne bien ? » L’impact de l’IA sur les marchés du travail et la gestion des risques Hinton souligne que L’effet de l’IA sur l’emploi est une préoccupation importante. L’IA et l’automatisation pourraient prendre le relais des tâches répétitives et banales, entraînant des pertes d’emplois dans certains secteurs. Les employés de la fabrication et des usines pourraient être durement touchés par l’automatisation. Les robots et les machines pilotées par l’IA se développent dans le secteur manufacturier, ce qui pourrait prendre en charge des tâches humaines risquées et répétitives. L’automatisation progresse également dans l’agriculture, avec des tâches automatisées telles que la plantation, la récolte et la surveillance des cultures. Dans le domaine de la santé, certaines tâches administratives peuvent être automatisées, mais les rôles qui nécessitent une interaction humaine et de la compassion sont moins susceptibles d’être entièrement remplacés par l’IA. En résumé Les préoccupations de Hinton concernant les progrès rapides de l’IA et leurs implications potentielles soulignent la nécessité d’un développement responsable de l’IA. Son départ de Google signifie son engagement à aborder les considérations de sécurité, à promouvoir un dialogue ouvert et à façonner l’avenir de l’IA d’une manière qui préserve le bien-être de l’humanité. Bien qu’il ne soit plus chez Google, les contributions et l’expertise de Hinton continuent de jouer un rôle essentiel dans le façonnement du domaine de l’IA et dans l’orientation de son développement éthique. Image sélectionnée générée par l’auteur à l’aide de Midjourney window.addEventListener( ‘load2’, function() console.log(‘load_fin’); if( sopp != ‘yes’ && !window.ss_u ) !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window,document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); if( typeof sopp !== « undefined » && sopp === ‘yes’ ) fbq(‘dataProcessingOptions’, [‘LDU’], 1, 1000); else fbq(‘dataProcessingOptions’, []); fbq(‘init’, ‘1321385257908563’); fbq(‘track’, ‘PageView’); fbq(‘trackSingle’, ‘1321385257908563’, ‘ViewContent’, content_name: ‘top-5-ethical-concerns-raised-by-ai-pioneer-geoffrey-hinton’, content_category: ‘seo’ ); );
Source link -57