La chose la plus cool à propos des lunettes intelligentes n’est pas la RA. C’est l’IA.

Meta et Snap ont désormais mis leurs lunettes entre les mains (ou peut-être sur le visage) des journalistes. Et tous deux ont prouvé qu’après des années de promesses, les spécifications AR sont enfin disponibles. Une chose. Mais ce qui m’intéresse vraiment dans tout cela, ce n’est pas du tout la RA. C’est l’IA.

Prenez les nouvelles lunettes de Meta. Il ne s’agit encore que d’un prototype, car le coût de leur construction – apparemment 10 000 dollars – est très élevé. Mais la société les a quand même présentés cette semaine, impressionnant pratiquement tous ceux qui ont pu les essayer. Les fonctions holographiques ont l’air très cool. Les commandes gestuelles semblent également très bien fonctionner. Et peut-être mieux encore, ils ressemblent plus ou moins à des lunettes normales, bien que volumineuses. (Attention, je peux avoir une définition différente des lunettes d’apparence normale que la plupart des gens.) Si vous souhaitez en savoir plus sur leurs caractéristiques, Alex Heath a un excellent article pratique dans Le bord.

Mais ce qui m’intrigue le plus dans tout cela, c’est la façon dont les lunettes intelligentes vous permettent d’interagir de manière transparente avec l’IA au cours de votre journée. Je pense que cela sera bien plus utile que de visualiser des objets numériques dans des espaces physiques. En termes plus simples : il ne s’agit pas d’effets visuels, mais de cerveaux.

Aujourd’hui, si vous souhaitez poser une question à ChatGPT ou à Gemini de Google ou autre, vous à peu près vous devez utiliser votre téléphone ou votre ordinateur portable pour le faire. Bien sûr, vous pouvez utiliser votre voix, mais elle a toujours besoin de cet appareil comme point d’ancrage. C’est particulièrement vrai si vous avez une question sur quelque chose que vous voyez : vous aurez besoin de l’appareil photo du smartphone pour cela. Meta a déjà pris de l’avance ici en permettre aux gens d’interagir avec son IA via ses lunettes intelligentes Ray-Ban Meta. C’est libérateur d’être libéré de l’attache de l’écran. Franchement, regarder un écran, c’est un peu nul.

C’est pourquoi, lorsque j’ai essayé les nouvelles Spectacles de Snap il y a quelques semaines, j’ai été moins séduit par la possibilité de simuler un green de golf dans le salon que par la façon dont je pouvais regarder l’horizon, interroger l’agent IA de Snap sur le grand voilier que j’ai vu au loin, et demandez-lui non seulement de l’identifier mais aussi de m’en donner une brève description. De même, dans Le bord Heath note que la partie la plus impressionnante de la démo d’Orion de Meta était lorsqu’il regardait un ensemble d’ingrédients et que les verres lui disaient de quoi il s’agissait et comment en faire un smoothie.

La fonctionnalité phare d’Orion ou d’autres lunettes ne sera pas les jeux de ping-pong AR—frapper une balle invisible avec la paume de la main est tout simplement idiot. Mais la possibilité d’utiliser l’IA multimodale pour mieux comprendre, interagir et simplement tirer le meilleur parti du monde qui vous entoure sans vous laisser aspirer par un écran ? C’est incroyable.

Et vraiment, cela a toujours été l’attrait. Du moins pour moi. En 2013, quand j’étais écrire sur les Google Glassce qui était le plus révolutionnaire à propos de cet ordinateur facial extrêmement naissant était sa capacité à offrir des informations contextuelles pertinentes à l’aide de Google Now (à l’époque la réponse de l’entreprise à Siri d’Apple) d’une manière qui contournait mon téléphone.

Même si j’avais des sentiments mitigés à propos de Glass dans l’ensemble, j’ai soutenu : « Vous allez tellement aimer Google Now pour votre visage. » Je pense toujours que c’est vrai.

#chose #cool #propos #des #lunettes #intelligentes #nest #pas #Cest #lIA

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.