Découvrez le nouveau Gemini et le projet Astra : les raisons de leur potentiel futur.

Le Projet Astra de Google introduit un agent IA polyvalent, Gemini, visant à faciliter les tâches quotidiennes grâce à des fonctionnalités innovantes comme Gemini Live et le partage d’écran. Cette technologie permet aux utilisateurs d’interagir en temps réel avec leur environnement, d’analyser des images et de partager des informations. En intégrant ces capacités, Gemini transforme l’expérience des maisons intelligentes et promet un avenir captivant pour l’IA sur smartphones, malgré certaines fonctionnalités nécessitant un abonnement payant.

Nous nous dirigeons rapidement vers une ère d’intelligence artificielle véritablement utile, avec le Projet Astra en tête, le nouvel agent IA polyvalent de Google, conçu pour simplifier nos tâches quotidiennes. Des marques comme Oppo, Honor, Motorola et Tecno explorent également des moyens novateurs d’intégrer l’IA dans notre quotidien, mais l’approche multimodale d’Astra pourrait bien être la clé de cette prochaine génération d’intelligence artificielle.

Le concept est simple : il vous suffit de pointer votre caméra sur un objet et d’engager une conversation en temps réel avec Google Gemini, où vous pouvez poser des questions et formuler des suggestions en fonction de ce qu’il perçoit.

La technologie qui sous-tend cette innovation est complexe, et comme vous pouvez l’imaginer, le déploiement des nouvelles fonctionnalités est progressif. Les deux premières fonctionnalités sont désormais prêtes, et avant leur lancement prévu ce mois-ci, j’ai eu l’opportunité de les explorer grâce à d’autres annonces concernant Gemini. Ce que j’ai découvert représente l’avenir de l’IA, et je ne peux contenir mon enthousiasme.

Les nouvelles fonctionnalités d’Astra : Gemini Live et partage d’écran

La mise à jour majeure de Gemini est le lancement de Gemini Live, qui acquiert des capacités visuelles révolutionnaires grâce au Projet Astra. Il est évident que les fonctionnalités d’Astra joueront un rôle clé dans la construction de la prochaine génération de Google Live.

Si vous attendiez une IA capable de vous aider à mieux comprendre votre environnement, la nouvelle fonctionnalité de partage vidéo transformera votre quotidien. Lors d’une démonstration, des questions liées à une entreprise de poterie ont été posées, et Gemini Live a su analyser les couleurs, les formes et le contexte sans nécessiter de multiples invites.

Comme en témoigne la vidéo, c’est véritablement fascinant, et les possibilités semblent infinies. Imaginez si Gemini pouvait vous guider pour changer un pneu ou diagnostiquer un problème moteur, même si c’est la première fois que vous le faites. Que diriez-vous de lui demander des conseils de mode, d’effectuer un diagnostic médical, ou de traduire en temps réel pendant vos voyages ?

Il existe également des applications professionnelles pour cette technologie, car le nouveau Gemini Live permet le partage d’écran. Cela vous offre la possibilité de partager votre écran, de poser des questions et de laisser Gemini vous accompagner. Je peux déjà imaginer son impact dans des tâches complexes telles que le dépôt de documents, l’apprentissage de sujets avancés ou la gestion de documents financiers.

Ce ne sont là que quelques-unes des avancées passionnantes de cet agent IA, car Google a également dévoilé d’autres fonctionnalités innovantes propulsées par Gemini au sein de son écosystème.

Gemini Live : lecture de fichiers, documents et images

En plus de sa capacité de partage d’écran, Google a démontré que Gemini peut lire et interpréter divers types d’images, fichiers et documents. Cette fonctionnalité enrichit l’expérience utilisateur de Gemini Live en intégrant une variété de formats de fichiers.

Cette innovation sera sans aucun doute un atout majeur pour les étudiants. Par exemple, un étudiant peut utiliser Gemini Live pour explorer une page d’un manuel sur l’ADN. Comme illustré dans la vidéo, Gemini peut approfondir le sujet, rechercher des informations supplémentaires pertinentes dans sa base de connaissances, et même composer une rime pour faciliter l’apprentissage des points clés.

L’intégration de ces fonctionnalités fera passer Gemini Live à un niveau supérieur et, espérons-le, ouvrira la voie à de nouvelles lunettes Google plus rapidement que prévu. La démonstration a été effectuée sur l’application Gemini sur le Galaxy S25 Ultra, donc cela devrait être accessible à tous les utilisateurs avancés de Gemini.

Les nouvelles routines pour Google Home avec Gemini

Cette démonstration a été soigneusement conçue pour illustrer comment l’IA Gemini transforme notre expérience de maison intelligente. En effet, Gemini pourrait bien réaliser le rêve tant attendu d’une maison intelligente totalement autonome.

Le scénario de démonstration était familier : des cookies disparus. Si vous êtes parent, si votre partenaire adore les sucreries, ou si vous avez un animal de compagnie malicieux, la nouvelle intégration de Google Home et Gemini pourrait surprendre le coupable en flagrant délit.

La démonstration a illustré comment Gemini peut analyser les images d’une Nest Cam, identifier le moment exact où les cookies ont été volés, et examiner la situation. Tout cela, à partir d’une simple question : qui a mangé le cookie ? Avec une seule commande, Gemini peut également configurer une routine qui s’exécutera automatiquement la prochaine fois que le coupable sera repéré. J’ai hâte d’explorer ces nouvelles routines, surtout avec des commandes plus élaborées.

L’avenir de l’IA repose sur Google Gemini

Je suis très impressionné par le déploiement de Gemini par Google, surtout sur les smartphones. Le fait que cette technologie soit mise à la disposition de centaines de millions d’appareils Android et que Google collabore avec divers fabricants pour développer de nouvelles fonctionnalités est essentiel pour accroître l’adoption et l’utilisation de ces outils.

Google s’impose ici comme un intermédiaire idéal, aidant à fusionner les idées et les besoins des différents fabricants de téléphones dans sa feuille de route. Il viendra un moment où certaines fonctionnalités seront réservées à des marques spécifiques, mais pour l’heure, il est réjouissant que tous les utilisateurs de Gemini puissent bénéficier de ces avancées.

Cependant, cela nécessite un abonnement à Gemini Advanced. Comme prévu, les fonctionnalités de vidéo et de partage d’écran dans Gemini Live sont réservées aux utilisateurs avancés, et il n’est pas encore certain si d’autres fonctionnalités seront accessibles sans un abonnement payant. Si vous n’avez pas encore fait l’acquisition de cet abonnement, c’est peut-être le bon moment. De plus, si vous envisagez d’acheter un nouveau téléphone, sachez que l’achat d’un Pixel 9 Pro, d’un Pixel 9 Pro XL ou d’un Pixel 9 Pro Fold vous donne droit à un an de Google One AI, incluant Gemini Advanced, gratuitement.

Les récentes mises à jour de Gemini me remplissent d’enthousiasme pour l’avenir de l’IA sur smartphones. Les premières fonctionnalités de Gemini se concentraient davantage sur la créativité, tandis que mes intérêts se dirigent vers des outils de productivité. Mais cela a rapidement évolué. Pour les utilisateurs d’iPhone, peut-être que Gemini pourrait combler le fossé laissé par les retards de l’IA.