يفضل معظم الناس الذكاء الاصطناعي – وليس البشر – لاتخاذ قرارات كبرى حول توزيع الموارد المالية، على الرغم من كونهم أكثر سعادة عندما يتخذ البشر مثل هذه القرارات.
وأظهرت دراسة جديدة نُشرت في 20 يونيو في مجلة Public Choice أن الأغلبية (64%) من المشاركين فضلوا الخوارزميات على البشر عندما يتعلق الأمر بتحديد مقدار المال الذي يكسبونه لإكمال مجموعة من المهام المحددة، حسبما أفاد موقع “لايف ساينس“.
اتخاذ القرار
قال العلماء إنه عند لعب اللعبة، لم يكن المشاركون مدفوعين بمصالحهم الخاصة فحسب، بل ومُثُل العدالة. لقد تسامحوا مع أي انحراف بين القرار ومصالحهم الخاصة عندما اتخذ الذكاء الاصطناعي القرار، طالما تم اتباع مبدأ واحد من مبادئ العدالة – ولكن عندما لم يتماشى القرار مع المبادئ المشتركة للعدالة، فقد تفاعلوا بشكل سلبي للغاية.
وعلى الرغم من تفضيل عملية اتخاذ القرار بواسطة الذكاء الاصطناعي بشكل عام على نظرائه من البشر، إلا أن المشاركين كانوا أكثر سعادة بشكل عام بالقرارات التي يتخذها البشر مقارنة بوكلاء الذكاء الاصطناعي. ومن الغريب أنه لم يكن مهمًا مدى “عدالة” أو “صحة” القرار نفسه.
ووجدت الدراسة أن الناس منفتحون على فكرة اتخاذ الذكاء الاصطناعي للقرارات بفضل الافتقار الملحوظ للتحيز والقدرة على تفسير القرارات والأداء العالي. وسواء كانت أنظمة الذكاء الاصطناعي تعكس هذه التأكيدات أم لا، فهذا أمر غير ذي صلة. ووصف ولفجانج لوهان، أستاذ الاقتصاد السلوكي في جامعة بورتسموث بالمملكة المتحدة، الشفافية والمساءلة للخوارزميات في سياقات اتخاذ القرار الأخلاقي بأنها “حيوية”.
ولأن العدالة هي بناء اجتماعي حيث يتم تضمين المفاهيم الفردية في مجموعة مشتركة من التعريفات، قال الباحثون إن الناس سيستنتجون أن الخوارزميات – المدربة على كميات كبيرة من بيانات “العدالة” – ستكون تمثيلًا أفضل لما هو عادل من صانع القرار البشري.
القرارات التوزيعية
وقد انطلقت التجربة للإجابة على عدة أسئلة بسيطة اعتبرها العلماء بالغة الأهمية مع استعانة المجتمع بالذكاء الاصطناعي في اتخاذ المزيد من القرارات. وتدور هذه الأسئلة حول ما إذا كان المتأثرون بقرار ما يفضلون أن يتخذه البشر أم أجهزة الكمبيوتر، وكيف سيشعر الناس بشأن القرار المتخذ اعتمادًا على ما إذا كان الإنسان أم الذكاء الاصطناعي هو الذي اتخذه.
وقال العلماء في الدراسة: “أصبحت مسألة تصور الناس وموقفهم تجاه القرارات الخوارزمية والذكاء الاصطناعي بشكل عام أكثر أهمية مؤخرًا، مع تحذير العديد من قادة الصناعة من مخاطر التهديد الذي يشكله الذكاء الاصطناعي ودعوا إلى التنظيم”.
وركزت الدراسة على القرارات التوزيعية بسبب انتشارها في السياسة والاقتصاد. وعلى عكس مهام التنبؤ بالذكاء الاصطناعي، فإن النتائج في هذه المجالات تعتبر ذات طبيعة أخلاقية أو أخلاقية بشكل أساسي، مع عدم وجود إجابة “صحيحة” موضوعية أو واقعية اعتمادًا على تعريف المشاركين لـ “العدالة”.
وأجريت التجربة عبر الإنترنت، حيث قام البشر وصناع القرار من الذكاء الاصطناعي بإعادة توزيع الأرباح من ثلاث مهام بين لاعبين. وبغض النظر عما إذا كان القرار يناسب الأفراد أم لا، يعتقد الباحثون أن معرفة الذكاء الاصطناعي باتخاذ القرار – والاعتقاد بأنه قرار عادل – يجعل النتائج أسهل للقبول.
يعتقد الباحثون أيضًا أن الناس يعتبرون أن الخوارزميات المستخدمة في المهام الاجتماعية أو “البشرية” تفتقر إلى الحكم الذاتي – مما يجعلها أكثر موضوعية وبالتالي من المرجح أن تكون صحيحة.
وقال الباحثون إن نتائجهم ستكون جزءًا مهمًا من أي مناقشة حول مدى انفتاح المجتمع على اتخاذ القرارات من خلال الذكاء الاصطناعي. وأضافوا أن النتائج تجعلهم متفائلين بشأن المستقبل، لأن القرارات التي يولدها الذكاء الاصطناعي تميل إلى التوافق مع تفضيلات المتأثرين.
اقرأ أيضاً: