Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
- Apple a récemment révélé des recherches sur son propre modèle d’IA, MM1, capable de comprendre à la fois le texte et les images.
- Ce développement suggère qu’Apple travaille sur des capacités d’IA plus puissantes pour ses produits.
- La recherche indique qu’Apple rattrape son retard et se prépare à jouer un rôle plus important dans la course à l’IA.
Vous avez probablement vu à quel point le monde de la technologie se déchaîne pour l’intelligence artificielle générative, mais devinez qui a été un peu discret à ce sujet ? Oui, Apple. Mais devinez quoi ? Des discussions récentes indiquent que le géant de la technologie de Cupertino discute avec Google au sujet de l’emprunt de son IA Gemini pour donner un coup de pouce à Siri et égayer iOS avec de nouvelles astuces en matière d’IA. Et maintenant, encore plus d’informations apparaissent. La semaine dernière, Apple a discrètement publié un document de recherche (via Filaire) détaillant ses efforts sur un modèle de langage multimodal (MLLM) baptisé MM1, capable de gérer à la fois du texte et des images. Le rapport montre que MM1 répond à des questions sur les photos et affiche un large éventail de compétences de connaissances générales semblables à celles des chatbots comme ChatGPT. Bien que le nom du modèle reste un mystère, MM1 pourrait simplement signifier MultiModal 1. MM1 semble partager des similitudes en termes de conception et de complexité avec les modèles d’IA récents d’autres titans de la technologie, comme Gemini de Google et Llama 2 open source de Meta. Recherche menée par les concurrents d’Apple. et les milieux universitaires indiquent que des modèles de ce calibre peuvent alimenter des chatbots compétents ou développer des « agents » capables d’exécuter des tâches en codant et en exécutant des actions telles que l’interaction avec des interfaces informatiques ou des sites Web. Cela laisse entendre que MM1 pourrait éventuellement devenir un élément clé de la gamme de produits Apple.
Dans un fil sur XBrandon McKinzie, chercheur chez Apple et auteur principal de l’article MM1, a commenté :
Ce n’est que le début. L’équipe travaille déjà dur sur la prochaine génération de modèles. Un grand merci à tous ceux qui ont contribué à ce projet !
MM1 est un grand modèle de langage multimodal, ou MLLM, ce qui signifie qu’il est formé à la fois sur des images et du texte. Cette formation unique permet au modèle de répondre à des invites textuelles et de répondre à des questions complexes sur des images spécifiques.
Dans un exemple tiré du document de recherche Apple, MM1 a reçu une photo d’une table de restaurant avec des bières et un menu. Lorsqu’on lui demande le coût prévu de « toute la bière sur la table« , le modèle identifie avec précision le prix et calcule la dépense totale.
De plus, tout récemment, Apple a acquis DarwinAI, une startup canadienne d’IA connue pour développer des systèmes d’IA compacts et efficaces. Tout cela suggère qu’Apple se prépare à faire sensation dans le domaine de l’IA, nous pouvons donc nous attendre à de nombreuses autres mises à jour dans un avenir proche. Gardez un œil sur les développements ultérieurs !