top of page
Faint Glow

TOUTES LES ACTUALITES 

Quand la technologie sert à sensibiliser au handicap

Voici les lunettes IA que Google s’apprête à lancer et ce que cela pourrait vraiment changer en 2026


Le projet de lunettes intelligentes Google à la façon Meta avait déjà été dévoilé. Le projet prend désormais forme. © Google
Le projet de lunettes intelligentes Google à la façon Meta avait déjà été dévoilé. Le projet prend désormais forme. © Google

Google s’est associé à Warby Parker pour proposer dès l’an prochain des lunettes intelligentes légères et dopées par l’IA de Gemini. Est-ce que cette nouvelle recette va lui permettre de se faire une belle place auprès de Meta.






En juin dernier, Futura se demandait si 2025 allait marquer le véritable début des lunettes intelligentes. En réalité, les constructeurs ont surtout pris leurs marques, plus ou moins laborieusement. En matière de produits véritablement finis, c'est Meta qui domine largement le paysage avec ses Ray-Ban, ou ses modèles dédiés à la mode et aux activités sportives avec Oakley.


Il faudra donc attendre 2026 pour voir des modèles à la hauteur de ce que propose Meta.


Faire aussi bien, voire mieux, c'est ce que souhaite proposer Google, près de dix ans après l'échec cuisant de ses Google Glass. Le géant de l'internet compte bien se faire une place en s'associant avec Warby Parker, comme Meta a su le faire pour proposer de vraies montures. Les deux partenaires vont commercialiser une paire de lunettes intelligentes légères, dopées à l'IA de Gemini. Plutôt qu'un gadget Hi-Tech de niche, elles sont pensées comme de véritables lunettes du quotidien.


L'atout de Warby Parker, c'est celui d'une marque américaine spécialiste de la lunette « fashion » à prix contenu. Pour que ces lunettes se fassent oublier sur le nez, c'est elle qui a conçu les montures légères et alimentées par l'IA de Google. Pour ce qui est de la machinerie, Google s'appuie sur sa nouvelle plateforme Android XR, déjà pensée pour la réalité mixte. Pour le côté intelligent, c'est l'IA multimodale Gemini qui exploite les capteurs des lunettes afin de comprendre ce que les caméras captent, le contexte sonore et les textes. C'est le même principe qu'avec les lunettes de Meta avec lesquelles elles vont donc entrer en concurrence frontale.


Une alliance mode-tech pour l’IA du quotidien


Il n'y aura pas qu'un seul modèle, car Google souhaite proposer deux familles de produits bien distinctes.


D'un côté, on trouvera des lunettes sans écran qui misent sur l'audio, le micro et la caméra. Leur usage sera orienté vers une assistance mains libres avec une conversation orale avec Gemini, la prise de photo, l'aide contextuelle sur l'environnement.


De l'autre, une paire de lunettes plus orientée vers l'affichage direct d'informations sur les verres avec l'ajout d'un micro-écran dans le verre pour afficher navigation, sous-titres de traduction ou informations pratiques. L'accessoire se veut discret et utile, plutôt que de tomber dans la réalité augmentée spectaculaire.​


Poids plume oblige, ces deux familles de lunettes s'appuieront sur la puissance de calcul d'un smartphone avec lequel elles seront connectées. Pour le moment, les deux partenaires n'ont pas annoncé de date de sortie précise.

Commentaires


activité au-delà de l'âge légal
taux incapacité
nombre de trimestres
Enfants
Aide constante d'une tierce personne
Handicap
bottom of page