À l’occasion de sa 11e conférence Connect annuelle qui a eu lieu les 25 et 26 septembre, Meta a dévoilé ses dernières avancées en matière de réalité mixte, d’IA et d’accessoires connectés. Ainsi, nous nous rapprochons chaque jour un peu plus de notre vision d’une plateforme informatique ouverte et centrée sur l’humain.
Nous avons récapitulé tout ce que vous devez savoir à propos des innovations de développement annoncées. Pour regarder l’intégralité des conférences et connaître tous les détails de ces annonces, cliquez ici.
L’une des annonces de l’événement Connect concerne le lancement de Llama 3.2, une mise à niveau majeure de sa collection de grands modèles de langage (LLM). Cette récente itération inclut des LLM de vision de taille petite et moyenne (11B et 90B), ainsi que des modèles légers en texte seul (1B et 3B) conçus pour les appareils mobiles et périphériques. Ces modèles prennent en charge un éventail de tâches, y compris le raisonnement sur les images, l’extraction de connaissances dans plusieurs langues, la synthèse, le respect des instructions et la reformulation. On notera que les modèles 1B et 3B sont optimisés pour une utilisation sur un appareil, pour un traitement plus rapide, une confidentialité renforcée et une latence réduite.
Les modèles de Llama 3.2 présentent des performances compétitives par rapport aux modèles fondamentaux de pointe, tels que Claude 3 Haiku et GPT4o-mini. Par ailleurs, ils prennent en charge une longueur de contexte de 128 000 tokens, ce qui permet des interactions plus complexes et plus nuancées. Pour faciliter une intégration transparente, nous avons également présenté Llama Stack, une interface standardisée pour personnaliser les modèles de Llama et créer des applications avec des agents. Cette pile inclut des intégrations étroites avec les bibliothèques PyTorch et prend en charge divers environnements, y compris sur site, cloud, nœud unique et sur appareil.
Les modèles de Llama 3.2 sont désormais disponibles au téléchargement sur le site Web de Llama et Hugging Face. Les équipes de développement peuvent aussi y accéder immédiatement via plusieurs plateformes partenaires. Cette version marque une avancée cruciale dans notre engagement à proposer des solutions d’IA accessibles, responsables et innovantes. Pour en savoir plus sur les derniers modèles, cliquez ici.
Le lancement de Meta Quest 3S, à partir de 299,99 USD, élargit l’audience qui aura accès aux expériences de réalité mixte. De plus, Quest 3S inclut un nouveau bouton d’action qui permet de basculer rapidement entre le mode entièrement immersif et le mode MR Caméra réelle pour choisir son environnement préféré. Pour en savoir plus sur Quest 3S, regardez la session Connect deprésentation du Meta Quest 3S.
Meta Horizon Store prend désormais en charge les applications 2D créées en tant qu’applications Web progressives (PWA), natives Android ou via le SDK Meta Spatial, ce qui permet aux développeur·ses d’ajouter des applications existantes à l’écosystème Meta Horizon. Cette mise à jour offre des fonctionnalités immersives telles que les panneaux redimensionnables, l’audio spatial et l’usage multitâche. Il s’agit d’une excellente opportunité pour les équipes de développement, qui peuvent toucher de nouvelles audiences, étant donné que plus de 60 % des utilisateur·ices de Meta Quest se servent aujourd’hui du navigateur et des panneaux 2D sur Meta Quest 3. Les développeur·ses ont le choix entre plusieurs méthodes de développement et disposent de ressources telles que le Centre pour les développeur·ses, des guides de portage et des applications de démonstration open source. Par ailleurs, notre programme pilote Horizon Start propose une assistance dédiée, des formations et un financement potentiel aux développeur·ses d’applications mobiles qui souhaitent passer à Meta Horizon OS. Retrouvez le billet de blog dans son intégralité ici.
L’innovation en matière de réalité mixte (MR) ne connaît pas de limite ; les développeur·ses peuvent donc créer des expériences dynamiques à l’aide de technologies révolutionnaires. Les outils étendus de développement de Meta rationalisent le processus, permettent d’innover avec les technologies MR et accompagnent les développeur·ses quel que soit leur niveau de compétences. Les nouveaux outils, améliorations et fonctionnalités annoncés lors de l’événement Connect 2024 permettent de créer des expériences MR plus réalistes, plus agréables et plus performantes.
Ces nouvelles fonctionnalités incluent une amélioration de la Caméra réelle et de l’API Depth, la transformation de l’audio en expressions, le lancer de rayons acoustiques, les microgestes et le SDK Interaction. Le développement est rationalisé avec Unity 6, MRUK et les Blocs de création. De plus, la prise en charge haptique interplateforme et le SDK LIV permettent une capture efficace du contenu. Ces mises à jour visent à rendre le développement de réalité mixte plus accessible, plus efficace et plus innovant. Retrouvez le billet de blog dans son intégralité ici.
En début de semaine, nous avons lancé plusieurs améliorations dans le parcours Web des développeur·ses Meta. Les équipes de développement disposent maintenant de nouveaux moyens d’accéder facilement au contenu, aux ressources et aux plateformes nécessaires pour leurs créations via le centre Meta for Developers et d’autres centres dédiés au développement pour Meta Horizon OS, les technologies Social et l’IA.