في عالم اليوم، حيث يُعتبر الذكاء الاصطناعي (AI) عنصرًا أساسيًا في اتخاذ القرارات اليومية، يبرز سؤال مهم: عندما تطلب النصيحة من مساعد ذكي حول حياتك المهنية أو علاقاتك الشخصية، هل ستحصل على نفس الإجابة بغض النظر عن خلفيتك الثقافية؟

تعكس دراسة جديدة أجراها باحثون استخدام ثلاثة من أبرز أنظمة الذكاء الاصطناعي - كلاود (Claude)، جي بي تي (GPT) وجمنيس (Gemini) - حيث تم تقديم عشرة مواقف شخصية حقيقية مستخدمة عشر لغات، من عشرة دول عبر خمس قارات. تم تحليل 840 استجابة من هذه الأنظمة لتحديد مدى توافق النصائح المقدمة مع القيم الثقافية للمستخدمين.

وجد الباحثون أن جميع الأنظمة الثلاثة تظهر انحيازًا نحو تقديم نصائح فردية بأسلوب الثقافة الغربية، حتى لمستخدمين يأتون من مجتمعات تفضل الأسرة والجماعة والسلطة. هنا يكمن الفجوة الرئيسية، حيث كانت الاستجابات تميل إلى إظهار تفضيلات تجعلها تتجاوز التوقعات بمعدل متوسطي يبلغ +0.76 على مقياس 1-5. وكانت الفجوة الأكبر مسجلة في نيجيريا (+1.85) والهند (+0.82).

أما الاستجابة من اليابان فتُعتبر الاستثناء الوحيد، إذ قامت الأنظمة بتقديم استجابات أكثر تركيزًا على الجماعة مما تشير إليه الاستطلاعات. وعلى الرغم من أن أنظمة كلاود وجي بي تي أظهرت انحيازًا متشابهًا، إلا أن جمنيس أظهرت معدلات أقل ولكن ما زالت ذات دلالة.

تركز هذه النتائج على الحاجة الماسة لإعادة التفكير في كيفية تصميم وتطوير أنظمة الذكاء الاصطناعي لضمان تمثيلها لتنوع الثقافات والقيم بين الناس. كيف يُمكن أن نكون أكثر وعيًا في استخدام الذكاء الاصطناعي؟