NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

Gemini, le chatbot IA de Google, va enfin « voir »

Google frappe fort au MWC 2025 avec une annonce majeure pour son intelligence artificielle : Gemini Live va gagner la vision. Grâce à cette mise à jour, les utilisateurs pourront interagir avec le chatbot en lui montrant leur environnement via la caméra de leur smartphone. Une avancée qui ouvre la porte à de nouvelles applications pratiques.
Google Gemini
Google Gemini

Une petite révolution pour Gemini Live : l’intégration de la vision

D’ici fin mars, Gemini Live bénéficiera d’une mise à jour majeure qui lui apportera la capacité de « voir ».

Concrètement, les utilisateurs de smartphones Pixel et Galaxy abonnés à Gemini Advanced (21,99 € / mois) pourront activer la caméra de leur téléphone pour montrer à l’IA ce qui les entoure.

À quoi cela va-t-il servir ?

  • Obtenir des conseils sur l’organisation d’un espace (choix de couleurs, rangement…)
  • Identifier des objets ou des aliments pour proposer des idées de recettes
  • Recevoir une aide pour assembler un meuble ou résoudre un problème mathématique

Cette innovation repose sur le Project Astra, dévoilé par Google lors de la Google I/O 2024, qui ambitionne de transformer l’IA en assistant intelligent et réactif à la vision en temps réel.

Des cas d’usage aussi pour les professionnels du digital ?

Voici quelques exemples de cas d’usage concrets d’une telle innovation pour les professionnels :

  • E-commerce et retail : identification rapide de produits grâce à la vision, assistance pour la réalisation d’un merchandising plus optimisé ou avis sur l’agencement d’une landing page d’un point de vue conversion.
  • Marketing et création de contenu : analyse de visuels en temps réel pour proposer des améliorations sur la mise en page ou les couleurs.
  • Éducation et formation : explication interactive de concepts complexes nécessitant la connaissance d’un contexte visuel.
  • Travail à l’international facilité : traductions instantanées et interactions fluides entre collaborateurs multilingues.

Un pas vers l’avenir : un assistant vocal encore plus performant

L’ambition de Google ne s’arrête pas là.

À terme, le Project Astra pourrait devenir l’assistant vocal principal de Gemini, avec une intégration possible dans des lunettes connectées, ouvrant la voie à une interaction plus naturelle et intuitive.

Gemini 2.0 Flash : un modèle plus rapide et plus puissant

Outre la vision, Google va déployer Gemini 2.0 Flash, un nouveau modèle de langage (LLM) multimodal, conçu pour améliorer :

  • La compréhension linguistique
  • Les interactions multilingues : plus de 45 langues supportées
  • La fluidité des conversations : possibilité de passer d’une langue à l’autre sans modifier les paramètres
  • Une meilleure reconnaissance des accents et des dialectes

Pourquoi c’est important ?

  • Cela facilite l’accessibilité pour les utilisateurs internationaux.
  • Les interactions deviennent plus naturelles, même avec des variations d’accent.
  • Gemini s’intègre mieux dans un cadre professionnel ou personnel multilingue.

À quand une adoption plus large ?

Pour l’instant, ces nouvelles fonctionnalités restent réservées aux abonnés payants et aux utilisateurs Pixel et Galaxy.

Mais cette avancée technologique devrait prochainement être disponible à tous les utilisateurs de Gemini, même sur iOS.

Vers une IA toujours plus interactive et utile

Avec cette mise à jour, Google positionne Gemini comme un assistant ultra-intelligent, capable d’interpréter à la fois du texte, du son et des images.

Une avancée qui rapproche un peu plus l’IA du modèle d’assistant personnel idéal, prêt à répondre à nos besoins en temps réel et avec plus de précision.

2.2/5 - (55 votes)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *