Google Lens s’apprête à intégrer une fonctionnalité révolutionnaire d’analyse en direct grâce à l’IA
Google continue d’innover autour de son application Google Lens. Selon des informations récentes basées sur l’analyse du code de la dernière version bêta de l’application Google, une nouvelle fonctionnalité baptisée « Live for AI Mode » est en cours de développement. Cette nouveauté permettrait aux utilisateurs de partager le flux vidéo en direct de leur appareil avec l’intelligence artificielle (IA) pour obtenir des réponses instantanées à leurs questions, sans avoir besoin de prendre une photo ou de télécharger une image.
Une fusion entre Google Lens et l’IA du mode expérimental de recherche
Cette fonctionnalité « Live for AI Mode » combine la puissance de Google Lens avec celle du récent mode IA expérimental de Google Search. Elle offre une expérience de recherche multimodale en analysant en temps réel ce que la caméra d’un smartphone filme et en apportant des réponses pertinentes directement à l’utilisateur. Par exemple, il serait possible de pointer son appareil vers une plante et de demander à Google Lens quel est son nom, avec une réponse immédiate sans aucune étape supplémentaire.
Comment fonctionne cette nouvelle fonctionnalité ?
Les chaînes de code révélées indiquent que l’IA pourra accéder à la caméra du dispositif pour analyser le contenu du flux en direct et répondre à des requêtes complexes, potentiellement en plusieurs étapes. Cependant, pour le moment, il semble que les utilisateurs ne pourront poser qu’une seule question à la fois, sans possibilité de suivi immédiat.
Une autre particularité intéressante est la possibilité de partager l’écran avec l’IA et ainsi d’obtenir des réponses adaptées à ce qui est affiché, étendant les capacités d’aide de l’assistant numérique au-delà de la simple reconnaissance visuelle.
Des similarités avec Gemini Live mais une approche différente
Bien que cette fonctionnalité rappelle Gemini Live, une autre innovation d’IA de Google, la principale différence réside dans son objectif. « Live for AI Mode » se concentre sur une recherche en direct assistée par intelligence artificielle plutôt que sur un assistant personnalisé. Elle s’inscrit donc dans la volonté de Google d’améliorer l’expérience utilisateur en combinant vision par ordinateur et intelligence artificielle pour des réponses plus rapides et contextuelles.
Points à noter et perspectives
Il est important de noter que ces informations proviennent uniquement de l’examen du code de l’application et qu’aucune annonce officielle n’a encore été faite par Google concernant la sortie de cette fonctionnalité ni ses caractéristiques définitives. Ainsi, la version finale pourrait évoluer avant son éventuelle mise à disposition au public.
En résumé, cette nouvelle avancée témoigne de la volonté de Google de rendre ses outils de recherche plus intuitifs et interactifs, en exploitant pleinement le potentiel de l’intelligence artificielle multimodale pour transformer notre façon d’interagir avec notre environnement via la caméra de nos smartphones.
👉 Source ici