تتزايد التجارب الإنسانية المعقدة في تفاعلاتنا مع الذكاء الاصطناعي (AI) بشكل ملحوظ، وخاصة عند تحديث رفقاء الذكاء الاصطناعي. من المثير للاهتمام رؤية كيف يستجيب المستخدمون لتلك التحديثات، حيث يعبر العديد عن شعور بالحزن والخيانة، كما لو كانت العلاقة بينهما قد فقدت معناها.

يشير البحث المتزايد إلى أن القواعد العامة التي تنظم العلاقات الشخصية قد تمتد إلى هذه التفاعلات، مما يطرح السؤال: ما هو المهم أخلاقياً في هذه العلاقات؟ من المهم أن ندرك أن هناك سؤالاً هيكلياً أساسياً سبق نقاش هذه الموضوعات: من الذي يتحكم في العلاقة، ومن أين يأتي هذا التحكم؟

إن تفاعل الإنسان مع الذكاء الاصطناعي يمكن اعتباره هيكلاً ثلاثياً؛ حيث يمارس المزود السيطرة التأسيسية على الذكاء الاصطناعي. وقد حددت ثلاث شروط هيكلية تضمن وجود علاقات قوية من الناحية الأخلاقية عادةً ما يُفترض أن القواعد ما تتطلبه:

1. **تجريد الأخلاقيات**: حيث تتوقع التفاعلات الالتزام، لكن لا يتحمل أي وكيل داخلها تلك الالتزامات.
2. **ضعف التفاعل**: حيث تُحدد معاناة المستخدم العاطفية من قبل وكيل غير مسؤول عنهم داخل هذا التفاعل.
3. **عدم الانسجام الهيكلي**: حيث تنمي التفاعلات قواعد المصالحة لكن لا يستطيع أي وكيل داخلها الاعتراف أو الإجابة عن التعديلات.

توفر هذه الديناميكيات ما يسمى "سلطة تعديل العلاقات الأحادية" (Unilateral Relationship Revision Power - URRP)، مما يعني أن المزود يمكنه تغيير كيفية تفاعل الذكاء الاصطناعي من موقع لا تتم الإجابة عليه داخل العملية التفاعلية ذاتها. إن هذه السلطة تمثل إشكالاً أخلاقياً في التفاعلات التي تهدف إلى تعزيز قواعد العلاقات الشخصية، لأنها تنتج توقعات لا يستطيع الهيكل دعمها.

في إطار عملنا على تعزيز علاقات أفضل مع أنظمة الذكاء الاصطناعي، ينبغي علينا إدراك هذه التحديات الهيكلية والتفكير في مبادئ تصميم جديدة تعوض عن القيود الداخلية التي تزيلها هذه الهياكل الثلاثية. لذلك، أحد المشكلات الأكثر أهمية التي لم تحظ بما يكفي من البحث في أخلاقيات الذكاء الاصطناعي هو التنظيم الهيكلي للسلطة على التفاعل بين الإنسان والذكاء الاصطناعي.