رغم أن الذكاء الاصطناعي والبشر يفكرون بطرق مختلفة، بل من المفترض أن يكون هناك تمايزًا كبيرًا من حيث آلية العمل والسرعة والأداء، لكن كشفت دراسة حديثة عن مفاجأة لافتة. إذ أظهرت أن بعض قرارات أنظمة الذكاء الاصطناعي تُتخذ بنفس الطريقة غير العقلانية التي يتبعها البشر. ما يفتح الباب أمام الكثير من التساؤلات والتكهنات، ليس على مستوى التقنية فقط، ولكن على مستوى الفلسفة والعلوم الإنسانية.
نشرت الدراسة في 8 أبريل بمجلة Manufacturing & Service Operations Management. وقد فحص الباحثون 18 انحيازًا معرفيًا معروفًا في علم النفس، ووجدوا أن ChatGPT، خاصة إصدار GPT-4، أظهر هذه الانحيازات في حوالي نصف السيناريوهات. قام فريق من الباحثين من جامعات كندية وأسترالية باختبار GPT-3.5 وGPT-4. ورغم اتساق أداء النموذجين، فإنهما ليسا بمنأى عن الأخطاء البشرية.
تفوّق GPT-4 في المشكلات التي تتطلب حسابات منطقية، لكنه أظهر انحيازًا في المواقف التي تتطلب قرارات ذات طابع شخصي. على سبيل المثال، أظهر تفضيلًا واضحًا للخيار الآمن أكثر حتى من البشر أنفسهم. في سيناريوهات مثل إدارة المخزون والتفاوض مع الموردين، حافظت النماذج على نفس أنماط الانحياز سواء طرحت الأسئلة بطريقة نفسية مجردة أو عملية.
يرى الباحثون أن مصدر هذه الانحيازات هو البيانات التي تم تدريب النماذج عليها. هذه البيانات تعكس تحيزات الإنسان، ويتم تعزيزها أثناء عملية التدريب، خاصة عبر التغذية الراجعة البشرية التي تفضل الإجابات المقبولة اجتماعيًا على المنطقية البحتة.
يشدد الباحثون على ضرورة استخدام الذكاء الاصطناعي في المشكلات التي يمكن حلها بصيغة حسابية واضحة. لكن عندما تتطلب المسألة قرارات استراتيجية أو ذات طابع شخصي، فالإشراف البشري يصبح ضروريًا.
وصف أحد الباحثين ChatGPT بأنه مثل الموظف الذي يحتاج إلى رقابة وتوجيهات أخلاقية. دون ذلك، قد نتجه نحو أتمتة التفكير الخاطئ بدلًا من تحسينه.
تؤكد الدراسة على أهمية الحذر عند استخدام أدوات الذكاء الاصطناعي في اتخاذ القرارات. ففي حين أنها قادرة على التفوق في المهام المنطقية، فإنها لا تزال تقع في نفس الفخاخ العقلية التي يعاني منها البشر. لذلك، فإن الاستخدام الذكي لهذه الأدوات يتطلب فهماً عميقًا لنقاط قوتها وحدودها.