Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
L’année dernière, les PDG du secteur technologique ayant de grands projets en matière d’intelligence artificielle ont passé beaucoup de temps à chercher des puces Nvidia.
Les puces du géant de Santa Clara, connues sous le nom de GPU, sont devenues la propriété la plus en vogue du boom de l’IA générative. Des personnalités aussi puissantes que Mark Zuckerberg et Sam Altman se sont précipitées pour sécuriser l’approvisionnement en ressources informatiques vitales nécessaires au fonctionnement d’applications comme ChatGPT.
Cependant, il y a un patron de l’IA qui ne s’est pas mis à la merci du leader milliardaire de Nvidia, Jensen Huang, et de son empire GPU de 2,2 billions de dollars. Rencontrez Sharon Zhou.
Le joueur de 30 ans a eu toute une carrière.
Elle est la première personne à se spécialiser en sciences classiques et en informatique à Harvard. Elle a obtenu un doctorat. en IA générative à Stanford sous la direction du pionnier de l’apprentissage automatique Andrew Ng, est devenu professeur adjoint à l’université et a consacré du temps à l’enseignement en ligne et à l’investissement providentiel. Comme si cela ne suffisait pas, on lui a également demandé de faire partie de l’équipe fondatrice d’Anthropic, le rival d’OpenAI qui vient de lever 2,75 milliards de dollars supplémentaires auprès d’Amazon.
Ses ambitions l’ont cependant amenée dans une direction légèrement différente, puisqu’elle trace désormais sa propre voie en prenant en charge sa propre startup d’IA.
Qui a besoin de Nvidia ?
En avril de l’année dernière, Zhou et son cofondateur Greg Diamos, basés à Palo Alto, ont sorti furtivement leur nouvelle startup, Lamini AI. Son ambition principale était d’offrir une plate-forme permettant aux entreprises de se former et de créer facilement de grands modèles de langage personnalisés avec « seulement quelques lignes de code ».
Cela pourrait signifier prendre un modèle de base tel que GPT d’OpenAI et permettre à une entreprise d’affiner facilement ce modèle avec ses propres données. « Ce que nous faisons, c’est permettre à chaque entreprise de disposer de l’infrastructure OpenAI, mais en interne », a déclaré Zhou.
Une révélation tout aussi intéressante est survenue quelques mois plus tard.
En septembre, Zhou a révélé que la plate-forme de Lamini avait construit des LLM personnalisés avec ses clients au cours de l’année écoulée en utilisant exclusivement des GPU du principal rival de Nvidia, AMD, le géant des puces dirigé par la cousine de Huang, Lisa Su.
C’était un gros problème étant donné que presque tout le monde semblait exclusivement obsédé par le H100 – des GPU pour lesquels Nvidia a eu du mal à répondre à la demande en raison de contraintes d’approvisionnement. La révélation de Lamini était même accompagnée d’une vidéo de Zhou taquinant Nvidia à propos de la pénurie.
Cependant, comme Zhou le reconnaît, ce n’était pas une décision facile de détourner le regard de ce que tout le monde dans l’IA générative cherchait désespérément. « Le processus de prise de décision a été long », a-t-elle déclaré. « Ce n’était pas une petite affaire anodine. »
Quelques éléments ont aidé à la décision. D’une part, son cofondateur Diamos a joué un rôle clé en aidant à réaliser que les GPU autres que ceux de Nvidia fonctionnent parfaitement bien.
En tant qu’ancien architecte logiciel de Nvidia, Diamos a compris que même si le matériel GPU était vital pour obtenir des performances optimales des modèles d’IA (il était, après tout, le co-auteur d’un article sur les « lois d’échelle » qui montrait l’importance de la puissance de calcul), le logiciel était important aussi.
Diamos en a été témoin en travaillant sur CUDA, le logiciel développé pour la première fois par Nvidia dans les années 2000. Cela rend l’utilisation de modèles d’IA avec des GPU comme le H100 et la nouvelle puce Blackwell de Nvidia, aussi simple qu’un système plug-and-play.
Il est donc devenu clair que si une autre entreprise pouvait construire un écosystème logiciel similaire autour de ses GPU, il n’y aurait aucune raison pour qu’elle ne puisse pas rivaliser avec Nvidia. Heureusement pour eux, après avoir consulté Diamos, selon Zhou, AMD était sur le point de construire un système rival qu’ils finiraient par tester.
« Greg et moi étions juste en train de jouer sur des choses, donc cela a pris des années, et puis une fois que les prototypes ont fonctionné, nous nous sommes dit qu’il fallait simplement doubler la mise », a déclaré Zhou.
Plus généralement, Zhou reconnaît que les entreprises sont très « enthousiastes à l’idée d’utiliser les LLM », mais beaucoup ne veulent pas – ou ne peuvent tout simplement pas se permettre – attendre que Nvidia renforce son offre de GPU pour répondre à la demande.
C’est une autre raison pour laquelle AMD s’est révélé si précieux pour ses ambitions. Grâce à la plus grande disponibilité de ses GPU, Zhou était convaincu que Lamini pourrait offrir « une infrastructure qui permet de répondre à cette demande croissante » pour les LLM.
« En effet, Lamini utilise pleinement le calcul LLM avec des performances 10 fois supérieures et permet une évolution rapide sans contraintes d’approvisionnement, en offrant des options de calcul indépendantes du fournisseur, c’est-à-dire qu’il est impossible pour les clients d’exécuter Lamini sur des GPU Nvidia et AMD », a-t-elle expliqué.
Pas étonnant que la société soit prête à doubler la mise sur AMD. En janvier, Zhou a partagé avec X une image du MI300X – la nouvelle puce d’AMD dévoilée pour la première fois en décembre par le PDG Su comme « l’accélérateur le plus performant au monde » – en direct en production chez Lamini.
Huang, de Nvidia, dirige peut-être actuellement l’une des entreprises les plus puissantes de la Silicon Valley, mais la concurrence approche pour lui. Ou comme Zhou l’a dit à propos d’AMD : « Ils ont un vrai cheval dans cette course. »