Débloquez gratuitement l’Editor’s Digest
Roula Khalaf, rédactrice en chef du FT, sélectionne ses histoires préférées dans cette newsletter hebdomadaire.
Mark Zuckerberg, de Meta, a dévoilé mercredi un prototype de lunettes de réalité augmentée légères baptisées Orion, alors que la course des Big Tech pour construire la prochaine plate-forme informatique s’intensifie.
Lors d’une présentation à la conférence annuelle Connect de Meta, Zuckerberg a déclaré que les lunettes étaient les « plus avancées » au monde, marquant « l’aboutissement de décennies d’inventions révolutionnaires et presque l’un des défis les plus difficiles jamais vus dans les industries technologiques ».
Grâce à l’affichage holographique, les lunettes peuvent superposer du contenu 2D et 3D au monde réel et utiliser l’intelligence artificielle pour analyser son contenu et proposer « de manière proactive » des suggestions aux porteurs sur l’écran, a déclaré Meta. Ses actions ont augmenté de plus de 2 % après l’annonce.
Le prototype ne sera disponible que pour une utilisation en interne et pour que certains développeurs puissent le développer. Pour être prêtes à être commercialisées, Zuckerberg a concédé que les lunettes devaient être « plus petites », « plus tendance », avec un écran plus net et plus abordables, ajoutant que « nous avons un champ de vision pour toutes ces choses ».
Une vidéo Meta présentant la technologie Orion a été saluée par plusieurs stars de la Silicon Valley, dont Jensen Huang, fondateur et directeur général de Nvidia, et Steve Huffman, directeur général de Reddit.
Meta a racheté en 2014 le fabricant de casques de réalité virtuelle Oculus et continue de développer des casques VR entièrement immersifs sous la marque Quest. Il y a cinq ans, il avait annoncé son intention de fabriquer des lunettes AR.
La course à la fabrication de « lunettes » intelligentes AR s’intensifie. Snap, le rival de Meta, a dévoilé la semaine dernière sa dernière version de lunettes AR. Meta et Snap espèrent contourner le système d’exploitation d’Apple en pariant sur le fait que les lunettes immersives remplaceront un jour les smartphones. Les entreprises technologiques tentent depuis des années de développer des objets connectés AR, comme les Google Glass, aujourd’hui abandonnées, mais elles n’ont pas réussi à enthousiasmer les consommateurs.
Zuckerberg a vanté les capacités d’intelligence artificielle d’Orion et a déclaré que le développement rapide de grands modèles de langage, notamment le modèle Llama, avait conduit à « une nouvelle catégorie d’appareils centrés sur l’IA ». En plus d’intégrer la méta-IA et le suivi des mains, le PDG a déclaré que les lunettes Orion utiliseront des bracelets pour capter les signaux du corps, y compris du cerveau, dans une interface neuronale.
« La voix est formidable, mais parfois, les choses sont publiques et vous ne voulez pas dire ce que vous essayez de faire… Je pense que vous avez besoin d’un appareil qui vous permet d’envoyer simplement un signal de votre cerveau à l’appareil », a déclaré Zuckerberg.
Meta a déjà investi des ressources importantes dans l’électromyographie, ou EMG, une technique qui utilise des capteurs pour traduire les signaux nerveux moteurs qui traversent le poignet jusqu’à la main en commandes numériques qui peuvent contrôler un appareil. L’EMG a été utilisé dans des recherches récentes pour tenter de traduire la manière dont le cerveau envoie des signaux aux mains pour effectuer des actions telles que la saisie au clavier et le balayage.
En 2019, Meta a acquis CTRL-labs, une start-up américaine développant une technologie permettant aux gens de contrôler des appareils électroniques avec leur cerveau, pour environ 1 milliard de dollars.
Mercredi, la société a également publié de nouvelles mises à jour de produits alimentées par ses améliorations en matière d’IA générative, alors que les entreprises technologiques se bousculent pour déployer cette technologie en plein développement. Cela inclut la dernière itération de son grand modèle de langage, Llama 3.2, son « premier modèle de vision majeur » qui peut comprendre des diagrammes, des graphiques et des documents.
« Maintenant que Llama est à la frontière en termes de capacités, je pense que nous avons atteint un point d’inflexion dans l’industrie où il commence à devenir une sorte de norme industrielle, ou une sorte de Linux de l’IA », a déclaré Zuckerberg à propos du nouveau modèle.
Il a déclaré que son chatbot Meta AI, qui utilise Llama, était « en passe de devenir l’assistant IA le plus utilisé » avec 500 millions d’utilisateurs actifs par mois.
Meta a également annoncé une version actualisée de ses lunettes intelligentes Ray-Ban, qui ne disposent pas d’écrans AR mais peuvent désormais permettre aux utilisateurs d’analyser des photos ou des vidéos en temps réel avec une interface vocale qui utilise Meta AI. Parmi les fonctionnalités supplémentaires, citons la configuration de rappels, comme la mémorisation d’une place de parking, l’appel de numéros à partir de documents, la numérisation de codes QR et la traduction de conversations en direct dans différentes langues.