Customize this title in frenchApple a son propre modèle d’IA à venir : le géant de la technologie rattrape-t-il enfin son retard dans la course à l’IA ?

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

TL;DR :

  • Apple a récemment révélé des recherches sur son propre modèle d’IA, MM1, capable de comprendre à la fois le texte et les images.
  • Ce développement suggère qu’Apple travaille sur des capacités d’IA plus puissantes pour ses produits.
  • La recherche indique qu’Apple rattrape son retard et se prépare à jouer un rôle plus important dans la course à l’IA.

Vous avez probablement vu à quel point le monde de la technologie se déchaîne pour l’intelligence artificielle générative, mais devinez qui a été un peu discret à ce sujet ? Oui, Apple. Mais devinez quoi ? Des discussions récentes indiquent que le géant de la technologie de Cupertino discute avec Google au sujet de l’emprunt de son IA Gemini pour donner un coup de pouce à Siri et égayer iOS avec de nouvelles astuces en matière d’IA. Et maintenant, encore plus d’informations apparaissent. La semaine dernière, Apple a discrètement publié un document de recherche (via Filaire) détaillant ses efforts sur un modèle de langage multimodal (MLLM) baptisé MM1, capable de gérer à la fois du texte et des images. Le rapport montre que MM1 répond à des questions sur les photos et affiche un large éventail de compétences de connaissances générales semblables à celles des chatbots comme ChatGPT. Bien que le nom du modèle reste un mystère, MM1 pourrait simplement signifier MultiModal 1. MM1 semble partager des similitudes en termes de conception et de complexité avec les modèles d’IA récents d’autres titans de la technologie, comme Gemini de Google et Llama 2 open source de Meta. Recherche menée par les concurrents d’Apple. et les milieux universitaires indiquent que des modèles de ce calibre peuvent alimenter des chatbots compétents ou développer des « agents » capables d’exécuter des tâches en codant et en exécutant des actions telles que l’interaction avec des interfaces informatiques ou des sites Web. Cela laisse entendre que MM1 pourrait éventuellement devenir un élément clé de la gamme de produits Apple.

Dans un fil sur XBrandon McKinzie, chercheur chez Apple et auteur principal de l’article MM1, a commenté :

MM1 est un grand modèle de langage multimodal, ou MLLM, ce qui signifie qu’il est formé à la fois sur des images et du texte. Cette formation unique permet au modèle de répondre à des invites textuelles et de répondre à des questions complexes sur des images spécifiques.

Dans un exemple tiré du document de recherche Apple, MM1 a reçu une photo d’une table de restaurant avec des bières et un menu. Lorsqu’on lui demande le coût prévu de « toute la bière sur la table« , le modèle identifie avec précision le prix et calcule la dépense totale.

L’iPhone d’Apple dispose déjà d’un assistant IA, Siri. Cependant, avec l’émergence rapide de concurrents comme ChatGPT, les capacités autrefois révolutionnaires de Siri commencent à paraître limitées et dépassées. Amazon et Google ont annoncé leur intention d’intégrer la technologie Large Language Model (LLM) dans leurs assistants respectifs, Alexa et Google Assistant. Google a même permis aux utilisateurs de téléphones Android d’échanger l’Assistant avec Gemini.
Alors que des concurrents comme Samsung et Google déploient de nombreuses fonctionnalités d’IA générative pour leurs smartphones, Apple est sous pression pour rester compétitif. Le PDG d’Apple, Tim Cook, a assuré aux investisseurs que la société dévoilerait cette année plus de détails sur ses initiatives d’IA générative.

De plus, tout récemment, Apple a acquis DarwinAI, une startup canadienne d’IA connue pour développer des systèmes d’IA compacts et efficaces. Tout cela suggère qu’Apple se prépare à faire sensation dans le domaine de l’IA, nous pouvons donc nous attendre à de nombreuses autres mises à jour dans un avenir proche. Gardez un œil sur les développements ultérieurs !



Source link -57