عودة إلى أخبار المطوّرين

Presence Platform | An overview

٢٥ أبريل ٢٠٢٣بواسطة‏‎Navyata Bawa‎‏

منصة Presence Platform من Meta هي مجموعة من التقنيات ومبادئ التصميم المستخدمة لإنشاء تجارب واقع افتراضي (VR) وواقع مختلط غامرة على أجهزة Meta Quest. تتضمن مجموعة متنوعة من الميزات مثل التتبع المتقدم وتكنولوجيا استشعار الحركة ورسومات وصوتيات عالية الجودة وعناصر تحكم وواجهات سهلة تعمل معًا لإنشاء تجارب غامرة وسلسلة. بالإضافة إلى توفير منصة للمطوّرين لإنشاء هذه التطبيقات المبتكرة، تتضمن أيضًا منصة Presence Platform ميزات تواصل اجتماعي تساعد في ربط الأشخاص وتفاعلهم مع بعضهم البعض ضمن مساحات افتراضية، بما في ذلك الدردشة الصوتية والتجارب المشتركة.

لنلق نظرة على بعض الميزات والأدوات المتوفرة لك من خلال منصة Presence Platform حتى تتمكن من تطوير طريقة اللعب والإنشاء والتواصل والعمل مستقبلاً على أجهزة Meta Quest.

أيقونات الواقع المختلط والتفاعلات والتواجد الاجتماعي

الواقع المختلط

تقدم منصة Presence Platform للمطوّرين أدوات وميزات الواقع المختلط التي تسمح للمستخدمين بمزج العوالم المادية والافتراضية، مما يوفر أكثر من مجرد تجربة واقع افتراضي غامرة حقيقية، أي تجربة تغطي العناصر المحيطة وتستفيد منها لفتح مستوى جديد من التجارب التفاعلية. تتيح أدوات الواقع المختلط هذه للأشخاص رؤية الكائنات الافتراضية والمادية والتفاعل معها في وقت واحد، مما ينشئ تجربة واقع موسّع (XR) أكثر تشويقًا وجاذبية.

من ضمن أدوات الواقع المختلط الأساسية التي توفرها منصة Presence Platform: هي Passthrough وScene وSpatial Anchors.

Passthrough

توفر ميزة Passthrough عرضًا بصريًا ثلاثي الأبعاد في الوقت الفعلي للعالم المادي داخل نظارات رأس Meta Quest. تسمح Passthrough API للمطوّرين بدمج عرض Passthrough البصري بالتجارب الافتراضية. Passthrough هي ميزة أساسية عند تطوير تطبيقات الواقع المختلط، كما تمكّنك من رؤية العناصر المحيطة في نظارة الرأس. للتعرف على المزيد حول Passthrough، تحقق من وثائق النظرة العامة حيث نتناول كيفية عمل Passthrough وكيفية إعدادها وكيفية تمكينها في التجارب الخاصة.

كما يمكن تخصيص ميزة Passthrough استنادًا إلى حالة الاستخدام والتطبيق. للتعرف على كيفية تخصيص passthrough، تحقق من وثائق التخصيص حيث نتناول كيفية استخدام التصميم وتجميع الطبقات وميزة Passthrough المعروضة على المساحات لتخصيص Passthrough وتحقيق الإقفال ونوافذ Passthrough.

تصور لميزة Passthrough

يمكن استخدام ميزة Passthrough عبر كابل Meta Quest Link، مما يسمح للتطبيق الذي تم تمكين Passthrough فيه بالتشغيل أثناء استخدام Meta Quest Link، ويعمل ذلك على الاستغناء عن الحاجة إلى تطوير التطبيق على الكمبيوتر ونشره على جهاز Meta Quest في كل مرة تختبره أثناء التطوير، كما يؤدي إلى تخفيض وقت التكرار بشكل كبير عند تطوير التطبيقات التي تدعم Passthrough. للتعرف على المزيد حول استخدام ميزة Passthrough من خلال Meta Quest Link، تحقق من الوثائق حيث نتناول المتطلبات الأساسية والإعداد وخطوات تمكين Meta Quest Link.

Scene

تعمل ميزة Scene على تعزيز الأداء لتطوير تجارب معقدة ومتعلقة بالمشاهد بشكل سريع مع وضع تفاعلات غنية ضمن البيئة المادية للمستخدم. تتضمن ميزة Scene مفهومين هامين: Scene Capture وScene Model.

Scene Capture يسمح للمستخدمين بالتجول والتقاط المشهد لإنشاء نموذج Scene Model.

Scene Model هو تمثيل فردي شامل وحديث للعالم المادي يسهل فهرسته والاستعلام عنه، مما يوفر تمثيلاً هندسيًا ودلاليًا لمساحة المستخدم حتى تتمكن من تطوير تجارب واقع مختلط على مستوى الغرفة.

العناصر الأساسية في Scene Model هي روابط Scene Anchors، والتي ترتبط بالمكونات الهندسية والتصنيفات الدلالية. على سبيل المثال، ينظم النظام غرفة معيشة المستخدم حول ركائز فردية بتصنيفات دلالية، مثل الأرضية والسقف والحوائط والمكتب والأريكة مع ربط كل ركيزة بتمثيل هندسي بسيط: حدود ثنائية الأبعاد أو مربع إحاطة ثلاثي الأبعاد.

رسم توضيحي لميزة Scene Anchors

للتعرف على المزيد حول ميزة Scene وكيفية عملها، تحقق من الوثائق حيث نتناول كيفية عمل Scene وكيفية تطوير تطبيقات الواقع المختلط باستخدام Scene وكيفية استخدام نموذج Scene Model.

Spatial Anchors

Spatial Anchors هي إطارات مرجعية مرتبطة بالعالم يمكنك استخدامها كنقاط أصل لتوفير محتوى ثابت عبر مختلف الجلسات. يمكن تحقيق هذا الاستمرار من خلال إنشاء رابط Spatial Anchor عند وضعية 6DOF محددة ثم وضع المحتوى الافتراضي المناسب. من خلال روابط Spatial Anchors، بإمكان المطوّرين إنشاء تطبيقات تعمل على تمكين المستخدمين من ترك الكائنات الافتراضية في موقع محدد وبإمكان هذه الكائنات الارتكاز في هذا الموقع حتى عندما يغادر المستخدم المنطقة. للتعرف على المزيد حول Spatial Anchors وقدراتها، تحقق من الوثائق حيث نتطرق إلى الإمكانات وكيفية استمرار المحتوى عبر الجلسات.

رسم توضيحي لميزة Spatial Anchors

كما تسمح ميزة Spatial Anchors لعدة مستخدمين بمشاركة نقطة مرجعية شائعة في المساحة، والتي تتيح لهم التفاعل مع كائنات وبيانات افتراضية في بيئة مشتركة وتعاونية. يُعد هذا مفيدًا عند تطوير تجارب محلية متعددة اللاعبين عن طريق إنشاء إطار مرجعي مرتبط بالعالم تتم مشاركته مع مستخدمين متعددين. على سبيل المثال، يمكن لشخصين أو أكثر الجلوس على الطاولة ذاتها ولعب لعبة طاولة افتراضية عليها. للتعرف على المزيد حول كيفية عمل Shared Spatial Anchors، راجع الوثائق حيث نناقش المتطلبات الأساسية وكيفية مشاركة الروابط بتفاصيل أكثر.

التفاعلات

توفر لك منصة Presence Platform أدوات وميزات يمكنك استخدامها للاستفادة من عناصر التحكم في الإدخال الطبيعية بما في ذلك اليدين والصوت ووحدات التحكم عند تطوير التجارب الغامرة. تتضمن هذه الأدوات مجموعة Interaction SDK وHand Tracking ومجموعة Voice SDK وTracked Keyboard ومجموعة Audio SDK.

مجموعة Interaction SDK

تقدم مجموعة Interaction SDK مكتبة مكونات لإضافة وحدات التحكم والتفاعلات باليدين إلى التجارب، مثل الأشعة والنكزة والمسك والتي تعمل على تضمين أفضل الممارسات والأساليب البحثية لتفاعلات المستخدمين على أجهزة Meta Quest. بالنسبة للأيدي على وجه التحديد، توفر مجموعة Interaction SDK نماذج تفاعلية خاصة باليدين واكتشاف الوضعية والإيماءات، بالإضافة إلى إمكانيات بصرية تتمحور حول اليدين.

رسم بياني يوضح اكتشاف إيماء اليدين من خلال مجموعة Interaction SDK

للتعرف على المزيد حول مجموعة Interaction SDK، راجع العرض التوضيحي التفصيلي حول كيفية تطوير تفاعلات سهلة في الواقع الافتراضي.

احرص على زيارة المدونة، حيث نتناول بعمق كيفية بدء استخدام مجموعة Interaction SDK، وكيفية إعدادها والعروض التوضيحية وأفضل الممارسات عند دمج التفاعلات في التجارب الخاصة.

مجموعة Voice SDK

تسمح لك مجموعة Voice SDK بتطوير تجارب صوتية قابلة للتخصيص بشكل كامل في اللعبة. توفر للمطوّرين مجموعة أدوات ومكتبات وموارد يمكنهم استخدامها لإضافة ميزة التعرف على الصوت وإمكانات معالجة اللغة الطبيعية إلى تطبيقات الواقع الافتراضي والواقع المختلط. يتم تشغيل مجموعة Voice SDK من خلال خدمة فهم اللغة الطبيعية (NLU) Wit.ai وتتوافق مع نظارات رأس Meta Quest وأجهزة الهواتف المحمولة والمنصات الأخرى التابعة لجهات خارجية.

رسم توضيحي لمجموعة Voice SDK

باستخدام Wit.ai، يمكنك بسهولة تدريب التطبيقات على استخدام الأوامر الصوتية من دون الحاجة إلى معرفة الذكاء الاصطناعي/التعلُّم الآلي سابقًا. يمكّنك الدمج بين مجموعة Voice SDK وWit.ai من التركيز على الجوانب الإبداعية والوظيفية للتطبيق، مع تمكين التفاعلات الصوتية القوية.

للتعرف على المزيد حول مجموعة Voice SDK، راجع الوثائق حيث نتعمق في كيفية إعدادها وخطوات دمج مجموعة Voice SDK والعروض التوضيحية وأفضل الممارسات.

Tracked Keyboard

تقدم مجموعة Tracked Keyboard SDK للمستخدمين طريقة فعّالة للتفاعل مع لوحة المفاتيح المادية أثناء التواجد داخل بيئة واقع افتراضي. من خلال عرض يدي المستخدم أعلى تمثيل الواقع الافتراضي للوحة المفاتيح، تتخطى مجموعة SDK تقييدات لوحات المفاتيح الافتراضية والكتابة اللمسية بدون النظر.

رسم توضيحي لميزة Tracked keyboard

للتعرف على المزيد حول مجموعة Tracked Keyboard SDK وكيفية استخدامها، راجع الوثائق حيث نتناول كيفية بدء الاستخدام بمجموعة SDK وكيفية دمجها في التطبيقات الخاصة وعينات المشاهد التي تعرض كيفية العمل.

مجموعة Audio SDK

يُعد عنصر الصوت ضروريًا لإنشاء تجربة واقع افتراضي أو واقع مختلط مقنعة. توفر مجموعة Audio SDK للواقع الموّسع من Meta وظيفة الصوت المحيطي بما في ذلك وظيفة النقل المتعلقة بالرأس (HRTF) القائمة على الكائن والتخصيص المكاني للأصوات المحيطة، بالإضافة إلى محاكاة صوتيات الغرفة. تتضمن بعض الميزات التي تدعمها مجموعة Audio SDK التخصيص المكاني للصوت وعرض المجال القريب وصوتيات الغرفة والأصوات المحيطة والتخفيف والانعكاس والعديد من الميزات التجريبية الأخرى التي يمكن للمطوّرين تجربتها.

رسم توضيحي لمجموعة Audio SDK

للتعرف على المزيد حول كيفية عمل مجموعة Audio SDK، والميزات المدعومة وكيفية دمجها في التطبيقات الخاصة، راجع الوثائق حيث نناقش هذه المواضيع بالتفاصيل.

التواجد على وسائل التواصل الاجتماعي

توفر لك منصة Presence Platform الأدوات والموارد اللازمة حتى تتمكن من تطوير تمثيلات رقمية عالية الوضوح للأشخاص والتي تنشئ إحساس واقعي مرتبط بالعالم الافتراضي. يمكن تحقيق ذلك عن طريق تتبع الجسم والوجه والعين، والذي يتم توفيره من خلال مجموعة Movement SDK.

مجموعة Movement SDK لمنصة Unity تستخدم تتبع الجسم وتتبع الوجه وتتبع العين لوضع حركات المستخدم الجسدية في الواقع الافتراضي وتعزيز التجارب الاجتماعية. باستخدام الإشارات المجردة التي يوفرها التتبع، يمكن للمطوّرين تحريك الشخصيات التي لديها التواجد على وسائل التواصل الاجتماعي وتوفير ميزات تتجاوز تجسيد الشخصية.

رسم توضيحي لمجموعة Movement SDK

للتعرف على المزيد حول كيفية عمل مجموعة Movement SDK والمتطلبات الأساسية الضرورية لاستخدامها، راجع الوثائق حيث نناقشها بالتفصيل. راجع الوثائق حول تتبع الجسم والوجه والعين للتعرف على المزيد حول كيفية عملها والتعرف على كيفية استخدامها في عينات مثل Aura وHigh Fidelity وغير ذلك.

الموارد الأخرى

للتعرف على المزيد حول منصة Presence Platform، راجع الوثائق حيث نتناول كل مجموعات SDK التي ناقشناها أعلاه بالتفصيل. بدء استخدام منصة Presence Platform من خلال تنزيل حزمة Oculus Integration لمنصة Unity ولمحرك Unreal.

لقد عمل الفريق على عينات متعددة لمساعدتك في البدء عند دمج هذه الأدوات ومجموعات SDK في التطبيقات الخاصة:

  • The World Beyond: عرض منصة Presence Platform الذي يوضح استخدام Scene وPassthrough وInteraction وVoice وSpatializer.
  • First Hand: عرض مجموعة Presence Platform Interaction SDK يوضح استخدام مجموعة Interaction SDK في منصة Unity مع تتبع اليد. يحتوي هذا المشروع على تفاعلات مستخدمة في العرض التوضيحي "First Hand" المتوفر على App Lab.
  • Unity-Movement: حزمة تعرض قدرات تتبع الجسم والعين والوجه في Meta Quest Pro، مما يتيح للمطوّرين تعبئة بيئات الواقع الافتراضي بأفاتار مخصص يجلب تعبير المستخدمين إلى العوالم الافتراضية التي يطورونها.
  • Whisperer: عرض مجموعة Presence Platform Voice SDK يوضح استخدام مجموعة Voice SDK في منصة Unity. يحتوي هذا المشروع على الرمز المصدر للعرض التوضيحي "Whisperer" المتوفر على App Lab.
  • Unity Shared Spatial Anchors: عينة Unity Shared Spatial Anchors توضح كيفية استخدام Shared Spatial Anchors API لمحرك لعبة Unity، حيث يعرض إنشاءSpatial Anchors وحفظها وتحميلها ومشاركتها.

تحقق من جلسات Connect 2022 حيث ناقشنا كيفية استخدام منصة Presence Platform لتطوير تجارب الواقع المختلط وكيفية دمج تتبع اليدين في التطبيقات وغير ذلك المزيد.