في حديثه حول مستقبل الذكاء الاصطناعي، قدم بارى ديلر، أحد أبرز الأسماء في قطاع الإعلام، دعمًا كبيرًا لسام ألتمان، الرئيس التنفيذي لشركة OpenAI. لكن ديلر كان له تحذير صارم حول المخاطر التي يمثلها الذكاء العام الاصطناعي (AGI)، حيث أشار إلى أن الثقة في الأفراد ليست كافية بمفردها.

تتزايد المخاوف من أن التكنولوجيا التي تقترب من تحقيق الذكاء الشبيه بالعقل البشري يمكن أن تكون قوة غير متوقعة، وهو ما يتطلب وضع قواعد وقوانين صارمة حول استخدام هذه التكنولوجيا.

يعتبر ديلر أن أي نظام ذكاء اصطناعي يتجاوز حدود التحكم البشري يحتاج إلى أدوات أمان فعالة. في هذا السياق، دعا إلى ضرورة وجود ضوابط واضحة لحماية المجتمع من السيناريوهات السلبية المحتملة.

يشتمل النقاش القائم حول AGI على العديد من الأسئلة الأخلاقية والتقنية، ومثله مثل أي تكنولوجيات جديدة، فإنها تحمل مخاطر وفرص في آن واحد. كيف يجب علينا كخبراء ومطورين أن نتعامل مع هذه التحديات؟

في نهاية المطاف، تبقى الثقة بين الأفراد جزءًا مهمًا، ولكنها وحدها لا تكفي لضمان سلامة هذه التكنولوجيا المتطورة. هل تعتقد أن وضع القوانين هو الحل الوحيد، أم يجب أن نتحدى تفكيرنا حول الذكاء الاصطناعي بشكل أوسع؟ شاركونا آرائكم في التعليقات.