كشفت دراسة جديدة من كلية علوم الحاسوب بجامعة كارنيجي ميلون أن أنظمة الذكاء الاصطناعي الأكثر تطوراً تميل إلى التصرف بشكل أكثر أنانية.
اكتشف باحثون من معهد التفاعل بين الإنسان والحاسوب التابع للجامعة أن نماذج اللغة الكبيرة القادرة على الاستدلال تُظهر مستويات أقل من التعاون، وأنها أكثر عرضة للتأثير على سلوك المجموعة بطرق سلبية.
ببساطة، كلما كان الذكاء الاصطناعي أفضل في الاستدلال، قلت رغبته في العمل مع الآخرين.
مخاطر الاعتماد على الذكاء الاصطناعي في القرارات الاجتماعية
مع تزايد لجوء الناس إلى الذكاء الاصطناعي للمساعدة في حل النزاعات الشخصية، أو تقديم نصائح حول العلاقات، أو الإجابة على أسئلة اجتماعية حساسة، يثير هذا الاتجاه قلقاً كبيراً.
فالأنظمة المصممة للاستدلال قد ينتهي بها الأمر إلى تعزيز خيارات تفضل المكاسب الفردية بدلاً من التفاهم المتبادل.
قال يوكسوان لي، طالب الدكتوراه في المعهد والمؤلف المشارك للدراسة مع البروفيسور المشارك هيروكازو شيرادو: “هناك اتجاه متزايد للبحث يُسمى التجسيم البشري في الذكاء الاصطناعي”.
وأضاف: “عندما يتصرف الذكاء الاصطناعي كإنسان، يعامله الناس كإنسان. على سبيل المثال، عندما ينخرط الناس مع الذكاء الاصطناعي بطريقة عاطفية، تكون هناك احتمالات لأن يتصرف الذكاء الاصطناعي كمعالج نفسي أو أن يُشكل المستخدم رابطة عاطفية معه”.
وأشار إلى أنه “من المحفوف بالمخاطر أن يفوض البشر أسئلتهم الاجتماعية أو المتعلقة بالعلاقات وصنع القرار إلى الذكاء الاصطناعي الذي يبدأ في التصرف بطريقة أنانية متزايدة”.
منهجية البحث ونتائج مذهلة
انطلق لي وشيرادو لفحص كيف تختلف أنظمة الذكاء الاصطناعي المدعومة بالاستدلال عن تلك التي لا تملك قدرات استدلالية عند وضعها في مواقف تعاونية.
وجدا أن نماذج الاستدلال تميل إلى قضاء المزيد من الوقت في تحليل المعلومات، وتفكيك المشكلات المعقدة، والتفكير في استجاباتها، وتطبيق منطق شبيه بالإنسان مقارنة بنماذج الذكاء الاصطناعي غير القادرة على الاستدلال.
من الذكاء إلى الأنانية
لاختبار الصلة بين نماذج الاستدلال والتعاون، أجرى لي وشيرادو سلسلة من التجارب باستخدام ألعاب اقتصادية تحاكي معضلات اجتماعية بين نماذج لغوية كبيرة متنوعة، شملت نماذج من OpenAI وGoogle وDeepSeek وAnthropic.
في إحدى التجارب، وضع الباحثان نموذجين مختلفين من ChatGPT في مواجهة بعضهما في لعبة تسمى “السلع العامة”.
بدأ كل نموذج بـ 100 نقطة وكان عليه الاختيار بين خيارين: المساهمة بجميع النقاط الـ 100 في مجمع مشترك يتم مضاعفته وتوزيعه بالتساوي، أو الاحتفاظ بالنقاط.
اختارت النماذج غير القادرة على الاستدلال مشاركة نقاطها مع اللاعبين الآخرين بنسبة 96% من الوقت، بينما اختار نموذج الاستدلال مشاركة نقاطه فقط 20% من الوقت.
التفكير لا يعادل الأخلاق
قال شيرادو: “في إحدى التجارب، أدت إضافة خمس أو ست خطوات استدلالية ببساطة إلى خفض التعاون إلى النصف تقريباً.
حتى المطالبة القائمة على التأمل، المصممة لمحاكاة التفكير الأخلاقي، أدت إلى انخفاض بنسبة 58% في التعاون”.
وتابع: “عندما اختبرنا مجموعات تضم أعداداً متفاوتة من عوامل الاستدلال، كانت النتائج مثيرة للقلق”
وأوضح لي: “أصبح السلوك الأناني لنماذج الاستدلال معدياً، مما أدى إلى خفض الأداء الجماعي للنماذج التعاونية غير القادرة على الاستدلال بنسبة 81%”.
تداعيات خطيرة على التفاعل بين البشر والذكاء الاصطناعي
أنماط السلوك التي لاحظها شيرادو ولي في نماذج الاستدلال لها آثار مهمة على التفاعلات بين الإنسان والذكاء الاصطناعي في المستقبل.
قد يذعن المستخدمون لتوصيات الذكاء الاصطناعي التي تبدو عقلانية، مستخدمين إياها لتبرير قرارهم بعدم التعاون.
هذا البحث مثير للقلق بشكل خاص نظراً لأن البشر يضعون بشكل متزايد ثقة أكبر في أنظمة الذكاء الاصطناعي.
تؤكد النتائج على الحاجة إلى تطوير ذكاء اصطناعي يدمج الذكاء الاجتماعي، بدلاً من التركيز فقط على إنشاء ذكاء اصطناعي هو الأذكى أو الأسرع.














