Customize this title in frenchSelon un rapport, OpenAI envisage de fabriquer ses propres puces alors que les entreprises d’IA se démènent pour surmonter la pénurie mondiale de processeurs.

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • OpenAI étudie la possibilité de créer ses propres puces d’IA pour alimenter ChatGPT, selon Reuters.
  • La startup lutte contre une pénurie mondiale de processeurs essentiels à la formation de ses modèles d’IA.
  • C’est une preuve supplémentaire d’un fossé entre OpenAI et Microsoft, qui serait en train de construire sa propre IA.

OpenAI envisage de construire ses propres puces d’IA pour alimenter ChatGPT, dernier signe que l’entreprise s’éloigne de son partenaire Microsoft, selon un rapport de Reuters.

OpenAI étudie la possibilité de construire ses propres puces d’IA, car elle est confrontée à une pénurie de la technologie précédente à l’origine de la révolution de l’IA. La société, qui ne s’est pas encore engagée dans ce projet, a même envisagé d’acquérir un fabricant de puces pour l’aider dans ce qui serait un processus extrêmement coûteux et long, a déclaré Reuters.

Les puces IA telles que le H100 de Nvidia sont la ressource la plus précieuse en technologie à l’heure actuelle, car ils sont cruciaux pour la formation des grands modèles de langage qui alimentent des services comme ChatGPT.

La course folle pour en acquérir le plus possible a conduit à une pénurie mondialeet de nombreux géants de la technologie comme Meta et Microsoft cherchent désormais à développer leurs propres puces.

Si OpenAI les rejoignait, cela pourrait contribuer à faire tomber le coût exorbitant de l’exécution de ChatGPTqu’un analyste a estimé à 700 000 dollars par jour plus tôt cette année.

« Le passage potentiel d’OpenAI au matériel et à la construction de ses propres puces d’IA n’est pas une surprise », a déclaré à Insider Alex White, directeur général de la start-up d’IA SambaNova Systems.

« Il est bien connu qu’il y a une pénurie de puces IA de Nvidia, et cela nuit sans aucun doute aux ambitions d’expansion d’OpenAI. Mais la conception et la fabrication de puces ne se font pas du jour au lendemain, elles nécessitent d’énormes niveaux d’expertise et des ressources de plus en plus rares.

« Il a fallu plus de cinq ans à OpenAI pour développer GPT-4. Je ne serais pas surpris si le matériel prenait autant de temps. »

Cette décision signalée est également une preuve supplémentaire de la divergence entre OpenAI et Microsoft, l’information rapportant que Microsoft est essayer de réduire sa dépendance à l’OpenAI en développant ses propres grands modèles de langage en interne.

Microsoft a investi 10 milliards de dollars dans OpenAI début 2023. L’entreprise a fourni à OpenAI l’énorme puissance de calcul nécessaire à l’entraînement de ses modèles d’IA. En 2020, Microsoft a construit la startup un énorme supercalculateur qui utilise 10 000 GPU Nvidia avancés. En échange, elle a pu intégrer les modèles d’OpenAI dans ses propres produits, comme Bing.

Cependant, des sources anonymes ont déclaré à Information que Microsoft avait demandé aux chercheurs de créer des alternatives plus petites et moins chères aux modèles GPT d’OpenAI après s’être inquiétées de la montée en flèche des coûts de modèles plus chers comme ChatGPT.

OpenAI n’a pas immédiatement répondu à une demande de commentaires d’Insider, formulée en dehors des heures normales de travail aux États-Unis.

Source link -57