في عصر تكنولوجيا الواقع الممتد (XR)، يُعتبر الذكاء الاصطناعي أحد المحركات الرئيسية للتطور والابتكار. ومع نشر نماذج اللغة الضخمة (LLMs) على أجهزة XR، تبرز الحاجة إلى إطار تقييم فعال لضمان الأداء المثالي.
تقديم AIvaluateXR يمثل خطوة كبيرة نحو تحقيق هذا الهدف. يهدف هذا الإطار إلى مقارنة نماذج اللغة الضخمة التي تعمل على أجهزة XR المختلفة، حيث تم اختبار 17 نموذجًا على أربع منصات XR: Magic Leap 2، Meta Quest 3، Vivo X100s Pro، وApple Vision Pro. وتغطي بعض المعايير الأساسية التي تم قياسها الأداء الثابت، سرعة المعالجة، استهلاك الذاكرة، واستهلاك البطارية.
تُظهر النتائج اختلافات كبيرة في الأداء بين النماذج والأجهزة، حيث تم تقييم 68 زوجًا من النماذج والأجهزة في ظل ظروف مختلفة من قياسات السلاسل، وحجم الدُفعات، وعدد الخيوط. باستخدام نظرية المثالية الباريدو (Pareto Optimality theory)، تم اقتراح طريقة تقييم موحدة لاختيار أفضل زوج من النموذج والجهاز، مما يدعم اتخاذ قرارات مدروسة في تطبيقات XR في الوقت الفعلي.
كما تم مقارنة كفاءة نماذج LLMs التي تعمل على الأجهزة مقارنة بتلك التي تعتمد على خوادم العملاء والسحابة، التي أظهرت دقة متفاوتة في مهمتين تفاعليتين. تشدد النتائج على أهمية هذه الأبحاث في توجيه جهود التحسين المستقبلي لنشر LLMs على أجهزة XR.
وفي خاتمة المطاف، يمثل AIvaluateXR أساسًا قويًا لمزيد من البحث والتطوير في هذا المجال المتقدم، مما يقدم رؤى قيمة حول كيفية تحسين تفاعل الإنسان مع الذكاء الاصطناعي على منصات الواقع الممتد.
ثورة الذكاء الاصطناعي في الواقع الممتد: AIvaluateXR تكشف عن إطار تقييم مبتكر!
تقدم AIvaluateXR إطارًا شاملاً لتقييم نماذج اللغة الضخمة على أجهزة الواقع الممتد، مما يُعزز من التفاعل بين الإنسان والذكاء الاصطناعي. كما توفر النتائج المبنية على المعايير الأساسية رؤى قيمة للتطوير المستقبلي في هذا المجال المتطور.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
