أطلقت شركة Meta Corporation ثلاث ميزات جديدة ومثيرة لنظاراتها الذكية Ray-Ban: الذكاء الاصطناعي في الوقت الحقيقي، والترجمة في الوقت الحقيقي، وShazam. ستعمل إضافة هذه الوظائف على تعزيز تجربة المستخدم وإظهار الإمكانات الهائلة لتقنية الذكاء الاصطناعي في مجال الأجهزة القابلة للارتداء. من بينها، وظائف الذكاء الاصطناعي في الوقت الفعلي والترجمة في الوقت الفعلي هي حاليًا في مرحلة الوصول المبكر، في حين أن وظيفة Shazam مفتوحة لجميع المستخدمين في الولايات المتحدة وكندا. ويمثل إطلاق وظائف جديدة تطور النظارات الذكية في اتجاه أكثر ذكاءً وملاءمة، ويشير أيضًا إلى أن الأجهزة القابلة للارتداء سيتم دمجها بشكل أعمق في حياتنا اليومية في المستقبل.
أعلنت شركة Meta مؤخرًا أن نظارتها الذكية Ray-Ban ستطلق ثلاث ميزات جديدة: الذكاء الاصطناعي في الوقت الفعلي، والترجمة في الوقت الفعلي، وShazam. من بينها، تقتصر وظائف الذكاء الاصطناعي في الوقت الفعلي والترجمة في الوقت الفعلي حاليًا على أعضاء برنامج الوصول المبكر Meta، في حين أن وظيفة Shazam مفتوحة لجميع المستخدمين في الولايات المتحدة وكندا.
تمت معاينة إمكانات الذكاء الاصطناعي في الوقت الفعلي والترجمة في الوقت الفعلي لأول مرة في مؤتمر Meta Connect 2024 في وقت سابق من هذا العام. يتيح الذكاء الاصطناعي في الوقت الفعلي للمستخدمين إجراء محادثات طبيعية مع مساعد Meta’s AI بينما تستمر النظارات في مراقبة المناطق المحيطة بهم. على سبيل المثال، عندما تتصفح قسم المنتجات في متجر بقالة، يمكنك نظريًا أن تطلب من Meta's AI أن يوصي ببعض الوصفات بناءً على المكونات التي تبحث عنها. يقول Meta أنه عند شحنه بالكامل، يمكن للمستخدمين استخدام ميزة الذكاء الاصطناعي في الوقت الفعلي لمدة 30 دقيقة تقريبًا في المرة الواحدة.
وفي الوقت نفسه، تتيح ميزة الترجمة في الوقت الفعلي للنظارات إجراء ترجمة صوتية في الوقت الفعلي بين الإنجليزية والإسبانية والفرنسية والإيطالية. يمكنك اختيار سماع الترجمة من خلال النظارة نفسها، أو عرض النص المترجم على هاتفك. يتعين عليك تنزيل أزواج اللغات مسبقًا وتحديد اللغات التي تستخدمها أنت وشريكك في المحادثة.
تعتبر وظيفة Shazam أكثر وضوحًا. عندما تسمع أغنية، ما عليك سوى مطالبة Meta AI وسيتمكن من إخبارك بالأغنية التي يتم تشغيلها. أظهر الرئيس التنفيذي لشركة Meta Mark Zuckerberg هذه الميزة في مقطع فيديو على Instagram.
إذا لم تكن نظارتك تعرض هذه الميزات الجديدة بعد، فتأكد من أن نظارتك تعمل ببرنامج v11 وأن تطبيق Meta View الخاص بك يعمل بالإصدار v196. إذا لم تكن مشتركًا بالفعل في برنامج الوصول المبكر، فيمكنك التقديم من خلال هذا الموقع.
ويأتي التحديث في وقت يركز فيه عمالقة التكنولوجيا على مساعدي الذكاء الاصطناعي كنقطة بيع أساسية للنظارات الذكية. في الأسبوع الماضي فقط، أصدرت شركة جوجل نظام التشغيل Android XR، وهو نظام تشغيل جديد مصمم خصيصًا للنظارات الذكية، وسلطت الضوء على مساعد Gemini AI باعتباره التطبيق القاتل. وفي الوقت نفسه، كتب أندرو بوسورث، كبير مسؤولي التكنولوجيا في Meta، في إحدى المدونات أن "2024 هو العام الذي ستحقق فيه نظارات الذكاء الاصطناعي تقدمًا كبيرًا". وأكد بوسورث أيضًا أن النظارات الذكية قد تكون أفضل شكل من الأجهزة "المعتمدة على الذكاء الاصطناعي حقًا" وأول فئة من الأجهزة يتم تعريفها بالكامل بواسطة الذكاء الاصطناعي منذ البداية.
بشكل عام، تثبت هذه الترقية الوظيفية لنظارات Meta الذكية الإمكانات الهائلة للذكاء الاصطناعي في مجال الأجهزة القابلة للارتداء، وستعمل المنافسة بين عمالقة التكنولوجيا على تعزيز التطور السريع لتكنولوجيا النظارات الذكية.
لا يعمل هذا التحديث الوظيفي على تحسين تجربة المستخدم لنظارات Ray-Ban الذكية فحسب، بل يشير أيضًا إلى أن النظارات الذكية ستصبح أكثر ذكاءً في المستقبل وستتكامل بشكل أكبر مع حياة الناس اليومية. ساهمت جهود ميتا أيضًا في تعزيز التطور التكنولوجي لصناعة النظارات الذكية بأكملها، ومن الجدير التطلع إلى المزيد من الميزات المبتكرة في المستقبل.