Depuis plusieurs semaines, je joue avec l’assistant IA de Meta dans ses lunettes intelligentes Ray-Ban. Il fonctionne en répondant à la commande vocale « Hey Meta » et peut répondre à une question ou examiner ce que vous regardez. C’est loin d’être parfait. Mais quand cela fonctionne, c’est comme un aperçu de l’avenir.
Meta ne s’attendait pas à ce que l’IA générative joue un rôle aussi important dans les lunettes jusqu’à très récemment. Quand le PDG Mark Zuckerberg a révélé pour la première fois que l’IA multimodale leur était proposée lors d’une interview avec moi l’automne dernier, il l’a décrit comme un « tout nouvel angle » sur les lunettes intelligentes qui pourrait finir par être la fonctionnalité phare avant les « hologrammes de très haute qualité ».
Compte tenu des milliards que Meta a investis dans les lunettes AR au cours des six dernières années et de l’accueil médiocre réservé à la première génération de Meta Ray-Ban, la version deux devait être une victoire. Les premières indications sont bonnes. J’ai vu des estimations de tiers selon lesquelles plus d’un million ont été vendus. Lors du dernier appel aux résultats de Meta, Zuckerberg a mentionné que de nombreux styles étaient épuisés. Désormais, avec l’IA multimodale activée, Meta pourrait disposer de la meilleure IA portable du marché.
2024-05-04 03:11:00
1714806280
#Pratique #avec #lIA #visuelle #dans #les #lunettes #intelligentes #RayBan #Meta