Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
jeDans tout le discours frénétique sur les grands modèles de langage (LLM) tels que GPT-4, il y a un point sur lequel tout le monde semble être d’accord : ces modèles sont essentiellement des perroquets stochastiques – à savoir des machines qui sont douées pour générer des phrases convaincantes, mais qui ne le font pas réellement. comprendre le sens du langage qu’ils traitent. Ils ont d’une manière ou d’une autre « lu » (c’est-à-dire ingéré) tout ce qui a été publié sous une forme lisible par machine et créé des phrases mot par mot, faisant à chaque instant une estimation statistique de « ce que l’on pourrait attendre de quelqu’un après avoir vu ce que les gens ont écrit dessus ». des milliards de pages Web, etc. C’est ça!
Depuis l’arrivée de ChatGPT en novembre dernier, les gens ont été étonnés par les capacités de ces perroquets – à quel point ils semblent être humains, etc. Mais la consolation a été tirée au départ de l’idée que, puisque les modèles s’appuyaient uniquement sur ce qui résidait déjà dans leurs vastes mémoires, ils ne pouvaient alors pas être véritablement originaux : ils se contenteraient de régurgiter la sagesse conventionnelle intégrée dans leurs données d’entraînement. Cette pensée réconfortante n’a cependant pas duré longtemps, car les expérimentateurs ont continué à découvrir des comportements surprenants et imprévisibles des LLM – des facettes désormais qualifiées de « capacités émergentes ».
Depuis le début, de nombreuses personnes ont utilisé les LLM comme aide au brainstorming. Demandez à l’un d’eux cinq façons de réduire l’empreinte carbone de votre foyer et il vous proposera une liste de suggestions raisonnables et réalisables. Il est donc clair que la combinaison de l’humain et du LLM peut constituer un partenariat créatif. Mais bien sûr, ce que nous aimerions vraiment savoir, c’est si les machines à elles seules sont capables de créativité ?
Ah, mais la créativité n’est-elle pas un concept glissant – quelque chose de difficile à définir mais que l’on reconnaît néanmoins quand on le voit ? Cela n’a cependant pas empêché les psychologues d’essayer de le mesurer, via des outils tels que le test des utilisations alternatives et le test similaire de Torrance. Et il s’avère qu’un LLM – GPT-4 – bat 91 % des humains sur le premier et 99 % sur le second. Ainsi, comme le dit Ethan Mollick, utilisateur invétéré de l’intelligence artificielle : « Nous sommes à court de tests de créativité que les IA ne peuvent pas réussir. »
Mollick travaille dans une école de commerce (Wharton, basée à l’Université de Pennsylvanie) et est depuis le début une pom-pom girl pour les LLM. Certains de ses collègues ont mené une expérience avec GPT-4 et 200 de leurs étudiants, lançant aux humains et aux machines le même défi : trouver une idée de produit destiné aux étudiants américains et qui coûterait moins de 50 dollars.
Et les résultats ? « ChatGPT-4 a généré des idées plus nombreuses, moins chères et meilleures que les étudiants. Ce qui est encore plus impressionnant, d’un point de vue commercial, c’est que l’intention d’achat des juges externes était également plus élevée pour les idées générées par l’IA ! Parmi les 40 meilleures idées évaluées par les juges, 35 provenaient de ChatGPT.
L’aspect vraiment éclairant de l’étude, cependant, était la conclusion qu’en tiraient les chercheurs sur les aspects économiques de celle-ci. « Un professionnel travaillant avec ChatGPT-4 », écrivent-ils, « peut générer des idées à un rythme d’environ 800 idées par heure. Au coût de 500 $ par heure d’effort humain, chiffre représentant une estimation du coût complet d’un professionnel qualifié, les idées sont générées au coût d’environ 0,63 $ chacune… À l’époque où nous utilisions ChatGPT-4, les frais de l’API [application programming interface, which allows two or more computer programs to communicate with each other] pour 800 idées, cela coûtait environ 20 $. Pour ces mêmes 500 $ de l’heure, un humain travaillant seul, sans l’aide d’un LLM, ne génère que 20 idées pour un coût d’environ 25 $ chacune… Pour la tâche ciblée de génération d’idées elle-même, un humain utilisant ChatGPT-4 est donc environ 40 fois plus productif qu’un humain travaillant seul.
Si vous vouliez avoir un aperçu de la façon dont les entreprises percevront cette technologie, vous ne pourriez pas faire mieux. Sa lecture m’a rappelé la perspicacité de Ted Chiang New yorkais essai sur la manière dont l’IA serait réellement utilisée. « Je suggère, écrit-il, que nous considérions l’IA comme une société de conseil en gestion, à l’instar de McKinsey & Company. Des entreprises comme McKinsey sont embauchées pour une grande variété de raisons, et les systèmes d’IA sont également utilisés pour de nombreuses raisons. Mais les similitudes entre McKinsey – un cabinet de conseil qui travaille avec 90 % des sociétés Fortune 100 – et l’IA sont également évidentes.
Chiang cite la description faite par un ancien employé de McKinsey du cabinet de conseil comme étant « les bourreaux volontaires du capital ». Si vous êtes un cadre supérieur qui doit prendre des décisions désagréables mais qui a besoin d’un déni plausible, être en mesure de citer un consultant externe – ou une nouvelle technologie ? – est une bonne façon de le faire. Ainsi, dit Chiang, à mesure que l’IA devient plus puissante et plus flexible, la question que nous devrions nous poser est la suivante : existe-t-il un moyen d’empêcher qu’elle ne soit une autre version de McKinsey ? Il suffit de poser la question pour connaître la réponse.
Ce que j’ai lu
Courage allemand
Just for Fun est un bel essai de Rebecca Baumgartner sur la plateforme 3 Quarks Daily sur la réaction des gens à l’annonce qu’elle apprend l’allemand – pour le plaisir !
Hobbes grogne
AI and Leviathan: Part II est le numéro 2 d’une remarquable série d’essais de Samuel Hammond sur son blog Second Best.
Homme aux nombreux mots
L’essai d’Henry Oliver sur le blog Common Reader de Substack – Samuel Johnson, Opsimath – est un bel hommage au Grand Cham.