Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLorsque les gens imaginent l’apocalypse de l’IA, ils imaginent généralement des robots. Les androïdes assassins du Terminateur la franchise. Les aides humanoïdes de Je robot. Les armées Cylon de Battlestar Galactica. Mais le scénario de prise de contrôle par un robot le plus souvent envisagé par la science-fiction ne se profile pas exactement. Les progrès récents et explosifs de l’IA, ainsi que le battage médiatique récent et explosif qui l’entoure, ont fait des risques existentiels posés par la technologie un sujet de conversation grand public. Pourtant, les progrès de la robotique, c’est-à-dire des machines capables d’interagir avec le monde physique par le mouvement et la perception, sont très en retard. « Je ne peux pas m’empêcher de me sentir un peu envieux », a déclaré Eric Jang, vice-président de l’IA de la société de robotique humanoïde 1X, lors d’une conférence lors d’une conférence sur la robotique l’année dernière. Et c’était avant l’arrivée de ChatGPT.Les grands modèles linguistiques rédigent des scénarios, écrivent du code et font des blagues. Les générateurs d’images, tels que Midjourney et DALL-E 2, remportent des prix d’art et démocratiser le design d’intérieur et produire des fabrications dangereusement convaincantes. Ils se sentent magiques. Pendant ce temps, les robots les plus avancés du monde ont encore du mal à ouvrir différents types de portes. Comme dans les portes physiques réelles. Les chatbots, dans le contexte approprié, peuvent être – et ont été – confondus avec de véritables êtres humains ; les robots les plus avancés ressemblent encore davantage à des bras mécaniques attachés à des tables roulantes. Pour l’instant, au moins, notre futur proche dystopique ressemble beaucoup plus à Son que M3GAN.L’idée contre-intuitive selon laquelle il est plus difficile de construire des corps artificiels que des esprits artificiels n’est pas nouvelle. En 1988, l’informaticien Hans Moravec a observé que les ordinateurs excellaient déjà dans des tâches que les humains avaient tendance à considérer comme compliquées ou difficiles (mathématiques, échecs, tests de QI) mais étaient incapables d’égaler « les compétences d’un enfant d’un an quand il vient à la perception et à la mobilité. Six ans plus tard, le psychologue cognitif Steven Pinker a proposé une formulation plus concise : « La principale leçon de trente-cinq ans de recherche sur l’IA », écrit-il, « est que les problèmes difficiles sont faciles et que les problèmes faciles sont difficiles ». Cette leçon est maintenant connue sous le nom de « paradoxe de Moravec ».Le paradoxe n’a fait que s’accentuer ces dernières années : la recherche sur l’IA avance à toute allure ; la recherche en robotique trébuche. C’est en partie parce que les deux disciplines n’ont pas les mêmes ressources. Moins de personnes travaillent sur la robotique que sur l’IA. Il y a aussi une disparité de financement : « Le volant du capitalisme ne tourne pas encore assez vite dans la robotique », m’a dit Jang. « Il y a cette perception parmi les investisseurs, basée principalement sur des données historiques, que le rendement des investissements dans la robotique n’est pas très élevé. » Et lorsque les entreprises privées investissent de l’argent dans la construction de robots, elles ont tendance à accumuler leurs connaissances. Dans les cercles de l’IA, au contraire, l’open sourcing est – ou du moins était – la norme. Il y a aussi le problème de la casse accidentelle. Lorsque votre expérience d’IA échoue, vous pouvez simplement redémarrer et recommencer. Une erreur avec un robot pourrait vous coûter des milliers de dollars en matériel endommagé.La difficulté d’obtenir suffisamment de données crée cependant un problème encore plus important pour la robotique. La formation d’une IA nécessite de grandes quantités de matière première. Pour un grand modèle de langage, cela signifie du texte, une ressource qui est présente en abondance (pour l’instant). Les progrès récents de l’IA ont été alimentés dans une large mesure par la formation de modèles plus grands avec une plus grande puissance de calcul sur des ensembles de données plus volumineux.Lis: GPT-4 pourrait bien être un gâchis gonflé et inutileLes roboticiens enclins à cette approche – espérant appliquer les mêmes techniques d’apprentissage automatique qui se sont avérées si fructueuses pour les grands modèles de langage – se heurtent à des problèmes. Les humains génèrent une immense quantité de texte dans le cadre de nos affaires courantes : nous écrivons des livres, nous écrivons des articles, nous écrivons des e-mails, nous envoyons des SMS. Cependant, le type de données qui pourraient être utiles pour entraîner un robot – tirées, par exemple, des mouvements naturels des muscles et des articulations d’une personne – est rarement enregistré. Équiper des masses de personnes avec des caméras et des capteurs n’est probablement pas une option viable, ce qui signifie que les chercheurs doivent collecter des données via des robots, soit en les contrôlant manuellement, soit en les faisant collecter des données de manière autonome. Les deux alternatives présentent des problèmes : la première est à forte intensité de main-d’œuvre, et la seconde s’enlise dans une sorte de logique circulaire. Pour collecter de bonnes données, un robot doit être assez avancé (parce que s’il se heurte à un mur encore et encore, il n’apprendra pas grand-chose), mais pour fabriquer un robot assez avancé, vous avez besoin de bonnes données.En théorie, un robot pourrait être formé sur des données tirées de mouvements simulés par ordinateur, mais là aussi, vous devez faire des compromis. Une simulation simple fait gagner du temps mais génère des données qui sont moins susceptibles de se traduire dans le monde réel ; une version compliquée génère des données plus fiables mais prend plus de temps à s’exécuter. Une autre approche consisterait à ce que les robots apprennent en regardant des milliers d’heures de vidéos de personnes en mouvement, extraites de YouTube ou d’ailleurs. Mais même ceux-ci ne fourniraient pas autant de données sur, par exemple, le fonctionnement du contrôle de la motricité fine, m’a dit Chelsea Finn, chercheuse en IA à l’Université de Stanford et à Google. Dans son discours, Jang a comparé le calcul à un raz-de-marée soulevant les technologies : l’IA surfe au sommet de la crête ; la robotique se tient toujours au bord de l’eau.Certains membres de la communauté robotique ne sont pas particulièrement soucieux d’attraper la vague. Boston Dynamics, dont les vidéos de robots canins et humanoïdes sont devenues virales depuis plus d’une décennie, « n’utilise pratiquement aucun apprentissage automatique, et une grande partie est en quelque sorte réglée manuellement », a déclaré Finn (bien que cela soit apparemment sur le point de changer) . Ses robots sont généralement peu adaptables. Ils excellent dans l’exécution d’une tâche spécifique dans un environnement spécifique. Aussi impressionnants soient-ils, ils sont en ce sens beaucoup moins avancés que certains des robots les plus modestes capables d’ouvrir différents types de tiroirs. (Boston Dynamics n’a pas répondu à une demande de commentaire.)Mais le plus grand obstacle pour les roboticiens – le facteur au cœur du paradoxe de Moravec – est que le monde physique est extrêmement compliqué, bien plus que le langage. Courir, sauter et saisir des objets peuvent venir naturellement aux gens, contrairement à la rédaction de dissertations, au jeu d’échecs et aux tests de mathématiques. « Mais en réalité, le contrôle moteur est à certains égards un problème intrinsèquement beaucoup plus complexe », m’a dit Finn. « C’est juste que nous avons évolué pendant de très nombreuses années pour être bons en contrôle moteur. » Un modèle de langage doit répondre à des requêtes faites à partir d’un nombre inimaginable de combinaisons de mots possibles. Et pourtant, le nombre d’états possibles du monde qu’un robot pourrait rencontrer est encore beaucoup, beaucoup plus grand. Pensez simplement au fossé entre le contenu informatif d’une phrase, voire de quelques paragraphes, et le contenu informatif d’une image, sans parler d’une vidéo. Imaginez combien de phrases seraient nécessaires pour décrire complètement la vidéo, pour transmettre à chaque instant l’apparence exacte, la taille, la position, le poids et la texture de chaque objet qu’elle montre.Quelles que soient ses causes, le retard de la robotique pourrait devenir un problème pour l’IA. Les deux sont profondément liés. Certains chercheurs sont sceptiques sur le fait qu’un modèle entraîné uniquement sur le langage, ou même sur le langage et les images, puisse un jour atteindre une intelligence humaine. « Il y a trop de choses implicites dans le langage », m’a dit Ernest Davis, informaticien à NYU. « Il y a trop de compréhension de base du monde qui n’est pas…
Source link -57