تشكل الرعاية الصحية أحد أكثر المجالات تقاطعًا مع التكنولوجيا الحديثة، حيث تتغلغل نظم الذكاء الاصطناعي (AI) في جميع جوانبها. لكن، ماذا عن الجانب الأخلاقي لهذه التكنولوجيا؟ بينما ينصب التركيز عادةً على المخاوف المتعلقة بالخلفية مثل التحيز (Bias) والعدل (Fairness) وقابلية التفسير (Explainability)، يغفل الكثيرون عن الجانب الأمامي، حيث يتفاعل المرضى والمهنيون الطبيون مع مخرجات الذكاء الاصطناعي.

في ورقة بحثية جديدة، يشير الباحثون إلى أن العلاقات غير المتوازنة بين المستخدمين والذكاء الاصطناعي تشكل فئة مميزة من الفشل الأخلاقي في التصميم. فعلى الرغم من أن المرضى يصبحون مرئيين للغاية لنظم الذكاء الاصطناعي من خلال استنتاج البيانات، إلا أنهم غالبًا ما يجدون أنفسهم غير قادرين على فهم، أو استفسار، أو التأثير على كيفية تمثيلهم.

يستند هذا البحث إلى مفهوم "قراءة غير متكافئة" (Asymmetric Legibility) وحالة استشارية في الطب عن بعد، حيث يُظهر الباحثون كيف أن اختيارات التصميم مثل التوصيات الافتراضية، المدخلات المحدودة، والكبت في مشاعر عدم اليقين تؤثر سلبًا على قدرة المرضى والأطباء على اتخاذ القرارات. حتى عند دقة الأنظمة تقنية، فإن تلك الخيارات تقوض السلطة، وتقدير الأطباء، والإشراف البشري.

لتحسين العلاقات بين المستخدمين والذكاء الاصطناعي في الرعاية الصحية، يقترح الباحثون مفهوم "التبادل" (Reciprocity) كتوجه تصميمي جديد. وذلك يتطلب ابتكارات تدخلية لتعزيز العلاقات الأكثر توازنًا ومشاركة، مما يمكن المرضى من أن يكون لهم صوت فعال في رعايتهم الصحية.

في عالم يزداد فيه الاعتماد على الأنظمة الذكية، يبقى السؤال: هل تتحقق فعلاً المساواة والعدالة في تفاعل المرضى مع الذكاء الاصطناعي؟ ما رأيكم في هذا التطور؟ شاركونا في التعليقات.