
Apple développe une paire de lunettes connectées à intelligence artificielle, destinée à concurrencer les Meta Ray-Ban. Selon des informations obtenues par MacRumors auprès d’une source interne, le dispositif embarquera deux caméras aux rôles bien distincts.
La contrainte principale est l’autonomie. Pour maintenir un format léger et fin, Apple aurait fait le choix de limiter les fonctionnalités, la capacité de la batterie dictant l’ensemble des décisions matérielles.
Deux caméras, deux fonctions distinctes
La première caméra sera haute résolution et servira à capturer des photos et des vidéos partageables, à la manière d’un iPhone porté sur le visage. La seconde, grand-angle et basse résolution, aura un rôle différent : analyser les gestes de la main et fournir un flux visuel à Siri pour contextualiser les demandes de l’utilisateur.
Ce choix s’inscrit dans une tendance déjà observable chez Apple. Le Vision Pro utilise la reconnaissance de gestes comme mode d’interaction principal, et des rumeurs évoquent l’intégration de petites caméras dans les prochains AirPods Pro pour un usage similaire.
Sur un appareil sans écran, l’interaction gestuelle devient le seul moyen naturel de naviguer dans l’interface. Apple semble donc prolonger une logique déjà éprouvée sur d’autres produits de la gamme.
Pas d’écran, pas de LiDAR
La première version des lunettes ne comprendra ni affichage intégré, ni LiDAR, ni caméras 3D. Ces technologies consomment trop d’énergie pour un appareil aussi compact. D’éventuelles versions ultérieures pourraient introduire des fonctions de réalité augmentée, mais ce scénario n’est pas à l’ordre du jour pour le modèle initial.
Le cadre sera fabriqué en acétate, un matériau d’origine végétale, plus souple que le plastique classique et significativement moins lourd. Apple testerait plusieurs styles de montures, selon les mêmes informations. Ce choix de matériau reflète une priorité assumée pour le confort et la discrétion au quotidien.
Siri au centre de l’expérience utilisateur
Les lunettes fonctionneront avec une version améliorée de Siri, celle qu’Apple prévoit d’introduire avec iOS 27. L’assistant pourra répondre à des questions sur l’environnement immédiat en s’appuyant sur ce que capte la caméra grand-angle en temps réel.

Les fonctionnalités prévues incluent la prise de photos, l’enregistrement vidéo et les appels téléphoniques. Ce périmètre correspond globalement à ce que proposent déjà les Meta Ray-Ban, le produit qu’Apple cherche directement à concurrencer sur ce segment de marché en pleine expansion.
La version améliorée de Siri représente un enjeu central. Sans écran pour afficher des informations, l’assistant vocal devient l’interface principale, et sa fiabilité conditionnera largement l’expérience perçue par les utilisateurs.
Calendrier encore incertain
Selon les rumeurs actuelles, Apple pourrait présenter les lunettes dès la fin de l’année 2026, pour une commercialisation prévue en 2027. Il est toutefois possible que l’annonce soit repoussée à 2027 si le développement le nécessite.
Apple n’a pas commenté ces informations. Le projet reste au stade du développement, et les caractéristiques décrites pourraient évoluer sensiblement avant une éventuelle présentation officielle.
Source : MacRumors

