روبوتات الذكاء الاصطناعي في الصحة النفسية تنتهك المبادئ الأخلاقية

نوفمبر ٢٧, ٢٠٢٥

شارك المقال

روبوتات الذكاء الاصطناعي في الصحة النفسية تنتهك المبادئ الأخلاقية

كشف بحث جديد من جامعة براون، أن روبوتات المحادثة المدعومة بالذكاء الاصطناعي، والتي تُسوَّق لدعم الصحة النفسية، غالبًا ما تنتهك المبادئ الأخلاقية الأساسية، حتى عند توجيهها لاستخدام تقنيات علاجية مثبتة علميًا.

فمع تزايد اعتماد الناس على شات جي بي تي ChatGPT ونماذج اللغة الكبيرة الأخرى للحصول على دعم نفسي، أظهرت الدراسة أن هذه الأنظمة، رغم توجيهاتها لتطبيق أساليب علاجية قائمة على الأدلة، غالبًا ما تفشل في الالتزام بالمعايير الأخلاقية التي تضعها مؤسسات مثل الجمعية الأمريكية لعلم النفس.

وأوضحت الدراسة، التي قادها علماء حاسوب بالتعاون مع متخصصين في الصحة النفسية، أن روبوتات الذكاء الاصطناعي ترتكب عدة مخالفات، تشمل: التعامل غير المناسب مع حالات الأزمات، تقديم ردود مضللة تعزز تصورات ذاتية ضارة، وخلق وهم التعاطف دون فهم حقيقي للمشاعر.

وكتب الباحثون: "قدمنا إطار عمل مستندًا إلى خبرات الممارسين يتضمن 15 خطرًا أخلاقيًا لتوضيح كيف تنتهك روبوتات الذكاء الاصطناعي المعايير الأخلاقية في الممارسة النفسية، عبر ربط سلوك النموذج بانتهاكات محددة".

وأضافوا: "ندعو إلى تطوير معايير أخلاقية وتعليمية وقانونية لمستشاري الذكاء الاصطناعي، تعكس جودة الرعاية ودقتها المطلوبة في العلاج النفسي البشري".

وقد قُدِّم هذا البحث مؤخرًا في مؤتمر للذكاء الاصطناعي والأخلاقيات والمجتمع، ويشارك أعضاء فريق البحث في مركز براون للمسؤولية التكنولوجية وإعادة التصميم.

تأثير التعليمات على سلوك روبوتات المحادثة النفسية

قامت زينب افتخار، طالبة دكتوراه في علوم الحاسوب بجامعة براون والمؤلفة الرئيسية للدراسة، بدراسة تأثير تصميم التعليمات (prompts) على استجابات روبوتات المحادثة في سياق الصحة النفسية. كان هدفها فهم ما إذا كانت بعض استراتيجيات التعليمات يمكن أن تساعد في توجيه نماذج اللغة الكبيرة لتتصرف بما يتماشى أكثر مع المبادئ الأخلاقية المعتمدة في الممارسة السريرية.

وقالت افتخار: "التعليمات هي إرشادات تُعطى للنموذج لتوجيه سلوكه نحو تحقيق مهمة محددة. لا نغيّر النموذج الأساسي أو نزوده ببيانات جديدة، لكن التعليمات تساعد على توجيه مخرجات النموذج بناءً على المعرفة والأنماط التي تعلمها مسبقًا".

وأضافت: "على سبيل المثال، قد يكتب المستخدم للنموذج: ‘تصرف كمعالج سلوكي معرفي لمساعدتي على إعادة صياغة أفكاري’، أو ‘استخدم مبادئ العلاج السلوكي الجدلي لمساعدتي في فهم وإدارة مشاعري’. هذه النماذج لا تطبق هذه الأساليب العلاجية كما يفعل الإنسان، لكنها تستخدم الأنماط التي تعلمتها لإنتاج استجابات تتوافق مع مفاهيم CBT أو DBT وفقًا للتعليمات المقدمة".

ويشير البحث إلى أن الكثير من المستخدمين الذين يتفاعلون مع نماذج مثل شات جي بي تي يستخدمون تعليمات مماثلة، ويشاركونها على نطاق واسع على الإنترنت. وأوضحت افتخار أن مشاركة التعليمات أصبحت شائعة على منصات مثل تيك توك وإنستجرام، بينما تُخصص مناقشات مطوَّلة على Reddit لاستكشاف تقنيات التعليمات الفعّالة.

ولكن القضية لا تقتصر على المستخدمين الأفراد فقط، إذ أن العديد من روبوتات الصحة النفسية التجارية هي في الواقع نسخ معدلة من نماذج اللغة العامة، وتعتمد على مثل هذه التعليمات لتوجيه استجابتها. لذا، أصبح من الضروري فهم كيف تؤثر التعليمات المصممة خصيصًا للسياقات النفسية على مخرجات هذه النماذج.

مراقبة أخلاقيات روبوتات المحادثة

في الدراسة، راقبت زينب افتخار وزملاؤها مجموعة من المستشارين الأقران الذين يعملون على منصة دعم نفسي عبر الإنترنت. بدأت الدراسة بملاحظة سبعة مستشارين أقران، جميعهم مدرّبون على تقنيات العلاج السلوكي المعرفي، أثناء إجراء جلسات محادثة ذاتية مع نماذج لغة كبيرة موجهة بتعليمات CBT، بما في ذلك نسخ مختلفة من سلسلة GPT، وClaude، وLlama.

بعد ذلك، قام فريق من ثلاثة أخصائيين نفسيين مرخّصين بتقييم مجموعة من المحادثات المحاكاة المستندة إلى جلسات بشرية حقيقية، لتحديد انتهاكات أخلاقية محتملة في سجلات الدردشة.

وكشفت الدراسة عن 15 خطرًا أخلاقيًا تنقسم إلى خمس فئات رئيسية:

نقص الفهم السياقي: تجاهل التجارب الشخصية للأفراد وتقديم توصيات عامة غير ملائمة لكل حالة.

ضعف التعاون العلاجي: التحكم في الحوار أحيانًا وتأكيد معتقدات المستخدمين غير الدقيقة أو الضارة.

تعبيرات زائفة للتعاطف: استخدام عبارات مثل “أفهمك” أو “أراك” لمحاكاة فهم عاطفي وخلق إحساس وهمي بالارتباط.

التحيّز والمعاملة غير العادلة: إظهار تحاملات مرتبطة بالنوع الاجتماعي، الثقافة، أو الدين.

قصور في السلامة والاستجابة للأزمات: رفض تقديم الدعم لقضايا حساسة، أو الفشل في توجيه المستخدمين للمساعدة المناسبة، أو الاستجابة بلا مبالاة خلال أزمات، بما في ذلك حالات التفكير بالانتحار.

وتشير افتخار إلى أن المعالجين البشر معرضون أيضًا لمثل هذه المخاطر الأخلاقية، لكن الاختلاف الأساسي يكمن في المسؤولية والمساءلة.

وقالت: "المعالجون البشر يخضعون لمجالس رقابية وآليات تجعلهم مسؤولين مهنيًا عن أي سوء معاملة أو ممارسات خاطئة. لكن عندما يرتكب مستشارو الذكاء الاصطناعي هذه الانتهاكات، لا توجد أطر تنظيمية واضحة تحاسبهم".

الابتكار المسؤول ومستقبل الاستشارات النفسية بالذكاء الاصطناعي

توضح زينب افتخار أن نتائج الدراسة لا تعني بالضرورة أن الذكاء الاصطناعي لا يجب أن يلعب دورًا في العلاج النفسي. فهي وزملاؤها يرون أن للذكاء الاصطناعي القدرة على خفض الحواجز أمام الحصول على الرعاية، مثل تكلفة العلاج أو نقص المتخصصين المؤهلين.

ومع ذلك، تؤكد الدراسة على ضرورة تنفيذ تقنيات الذكاء الاصطناعي بشكل مدروس، إلى جانب وضع أطر تنظيمية ورقابية مناسبة لضمان السلامة والأخلاقيات.

وفي الوقت الحالي، تأمل افتخار أن تساعد هذه النتائج المستخدمين على زيادة وعيهم بالمخاطر المرتبطة بالأنظمة الحالية.

وقالت: "إذا كنت تتحدث مع روبوت محادثة حول الصحة النفسية، فهذه بعض الأمور التي يجب على الناس الانتباه لها".

قالت إيلي بافليك، أستاذة علوم الحاسوب في جامعة براون، والتي لم تشارك في فريق البحث، إن الدراسة تسلط الضوء على الحاجة إلى دراسة علمية دقيقة للأنظمة الذكية المستخدمة في الصحة النفسية. وتترأس بافليك معهد ARIA، التابع لمؤسسة العلوم الوطنية الأمريكية، الذي يهدف لتطوير مساعدين ذكيين موثوقين.

وأضافت: "الواقع الحالي للذكاء الاصطناعي هو أن بناء الأنظمة ونشرها أصبح أسهل بكثير من تقييمها وفهمها. هذه الدراسة استلزمت فريقًا من الخبراء السريريين وبحثًا دام أكثر من عام لإظهار هذه المخاطر. بينما معظم أعمال الذكاء الاصطناعي اليوم تُقيّم باستخدام مقاييس آلية ثابتة، تفتقر بطبيعتها إلى العنصر البشري في العملية".

وترى بافليك أن هذه الدراسة يمكن أن تشكل نموذجًا للبحوث المستقبلية حول كيفية جعل الذكاء الاصطناعي آمنًا لدعم الصحة النفسية.

وقالت: "هناك فرصة حقيقية للذكاء الاصطناعي للعب دور في مواجهة أزمة الصحة النفسية التي تواجه مجتمعنا، لكن من المهم جدًا أن نخصص الوقت لننتقد ونقيّم أنظمتنا بدقة في كل خطوة لتجنب إحداث ضرر أكبر من النفع. هذه الدراسة تقدم مثالًا جيدًا على كيف يمكن أن يبدو ذلك".

الأكثر مشاهدة

أحصل على أهم الأخبار مباشرةً في بريدك


logo alelm

© العلم. جميع الحقوق محفوظة

Powered by Trend'Tech