أطلقت شركة جوجل أداة جديدة لمطوري تطبيقات الواقع المعزز على أندرويد. وهي عبارة عن واجهة برمجة تطبيقات API تتيح لك الحصول على عرض صور أكثر عمقا، مما يجعل تأثيرات الواقع المعزز أكثر واقعية.
على غرار شركة أبل، تساعد جوجل المطورين على إنشاء تجارب الواقع المعزز كالموجودة في لعبة Pokémon Go على الهواتف الذكية التي تعمل بنظام أندرويد. البرنامج الذي تقدم جوجل من خلاله الواقع المعزز على أندرويد يسمى ARCore.
وفي هذا الأسبوع، قدمت الشركة تحسينًا كبيرًا لهذا البرنامج و المتمثل في واجهة برمجة تطبيقات API جديدة تسمى Depth API. في الأساس، تتيح هذه الميزة الجديدة للمطورين الحصول على عرض صور أكثر عمقا و بُعداً، مما يجعل من الممكن تقديم تطبيقات الواقع المعزز أكثر واقعية.
واجهة برمجة تطبيقات تعطي مزيدًا من الواقعية لتأثيرات الواقع المعزز
على سبيل المثال، باستخدام معلومات حول عمق أو مسافة الأسطح، يمكن للتطبيقات عرض كائنات افتراضية تختفي وتظهر خلف عناصر من العالم الحقيقي. فمنصة سناب شات هي إحدى الشركات التي تستخدم حاليا واجهة Depth API لتقديم تأثيرات الواقع المعزز على شبكتها الاجتماعية.
تعطينا الرسوم المتحركة أدناه لمحة عما يمكن تحقيقه بفضل وظائف أندرويد الجديدة. بالإضافة إلى ذلك، يمكن لمنشئي تأثيرات الواقع المعزز على سناب شات الآن استخدام واجهة برمجة التطبيقات الجديدة لإنشاء تجارب أكثر واقعية.
يستخدم برنامج TeamView Pilot أيضًا واجهة برمجة تطبيقات Depth API لتقديم خدمة المساعدة عن بعد عبر الواقع المعزز.
صرح راجات باهاريا، رئيس المنتج في الشركة قائلا: “كما أشرنا في العام الماضي، فإن القدرة الأساسية لـ Depth API هي جعل الأشياء الرقمية تظهر بدقة خلف الأشياء الواقعية. يعطي هذا الانطباع بأن الأشياء موجودة بالفعل في مساحتك الخاصة، مما يخلق تجربة واقع معزز أكثر واقعية”.
تتوفر واجهة برمجة التطبيقات الجديدة هذه على الأجهزة التي تستخدم ARCore في الإصدار 1.18 ولا تتطلب كاميرا RGB. ومع ذلك، توضح جوجل أن التجربة قد تكون أفضل على الهواتف الذكية التي تحتوي على مستشعر للعمق، مثل مستشعر وقت الطيران أو مستشعر ToF الموجود على العديد من الأجهزة.
خلال مؤتمر WWDC أطلقت أبل أيضًا واجهة برمجة تطبيقات جديدة تسمى Depth API لنظامها البيئي. تستفيد واجهة برمجة التطبيقات هذه من الماسح الضوئي LiDAR لأحدث منتج لها iPad Pro لتوفير بيانات عمق دقيقة.