في عالم الذكاء الاصطناعي الحديث (Artificial Intelligence)، أصبحت روبوتات الدردشة الطبية، والتي تعتمد على تقنية التعزيز المعتمد على الاسترجاع (Retrieval-Augmented Generation - RAG)، خيارًا متزايد الشعبية لتقديم معلومات صحية موثوقة وسهلة الوصول. ومع ذلك، أحدثت دراسة حديثة ضجة كبيرة عندما كشفت عن ثغرات أمان خطيرة في هذه الروبوتات، مما يطرح تساؤلات حول حماية خصوصية المرضى.

تستند هذه الدراسة إلى تقييم أمني غير مدمر لروبوت دردشة طبي متاح للجمهور، حيث استخدم الباحثون استراتيجيات متعددة لتحديد المخاطر المتعلقة بالأمان. ابتدأوا باختبار استكشافي مدعوم بأداة Claude Opus 4.6، ثم انتقلوا إلى التحقق يدوياً من النتائج المقترحة باستخدام أدوات مطور Chrome لمتابعة حركة الشبكة المرئية عبر المتصفح.

أدت هذه العملية إلى اكتشاف ثغرة حرجة: تم الكشف عن معلومات حساسة تتعلق بنظام إدارة المعلومات وتهيئة RAG من خلال الاتصال بين العميل والخادم، بدلاً من أن تكون محصورة على الخادم. التأكيد اليدوي أظهر أيضًا أن المرور التقليدي عبر المتصفح سمح بجمع نصوص المحادثات، وتحديد المعلمات، ونقاط النهاية، وأحدث المحادثات الكبرى.

هذه الثغرات لم تكتفِ بتحدي تأكيدات الخصوصية التي قدمها النظام، بل سمحت أيضًا باسترجاع سجلات المحادثات الكاملة، بما في ذلك استفسارات صحية حساسة، دون الحاجة إلى مصادقة.

بالتالي، تؤكد هذه النتائج على أهمية التقييم المستقل كشرط أساسي قبل نشر مثل هذه التقنيات. وظهر أن استخدام أنظمة نمذجة اللغات الكبيرة (Large Language Models) قد سهل هذه التقييمات، لكن هذه التسهيلات يمكن أن تكون متاحة أيضًا لمن يسعى للاستفادة منها بطرق غير شرعية.