أعلنت شركة OpenAI المالكة لـ ChatGPT عن خططها لإطلاق مجموعة أدوات الرقابة الأبوية خلال الشهر المقبل، وذلك في استجابة مباشرة لتزايد المخاوف العالمية حول تأثير المحادثات مع ChatGPT على الصحة النفسية للمراهقين، حيث تهدف هذه الأدوات إلى تعزيز سلامة المستخدمين جوانب العاطفية والعقلية.
أعلنت OpenAI أن الرقابة الأبوية الجديدة في ChatGPT تشمل:
جاء هذا الإعلان عقب دعوى قضائية رفعها والدان من كاليفورنيا بعد أن توفي ابنهما البالغ 16 عامًا، خصوصًا بعد ادعاءات بأن ChatGPT شجعه على الانتحار عبر نصائح عملية ومحفزة .
وكانت OpenAI قد قالت في مدونتها إن هذه الإجراءات تأتي بعد إدراكها أن أنظمة السلامة قد تصبح “أقل موثوقية” في محادثات طويلة ممتدة، وأنها تسعى لتحسين الاستجابة لمستخدمي الأزمات العاطفية عبر صقل الرقابة الأبوية وتوجيه الرسائل نحو موارد إنسانية حقيقية .
أشارت OpenAI إلى أن هذه الخطوات هي أولى مراحل الرقابة الأبوية، وأنها ستستمر بتعزيز الآليات الأمنية بالتعاون مع خبراء في تنمية الشباب والصحة النفسية والتفاعل بين الإنسان والآلة .
كما أوضحت الشركة أنه سيتم توجيه المحادثات التي تشير إلى حرج نفسي — سواء في ChatGPT أو منصات مشابهة — إلى نماذج ذات قدرة استدلالية متقدمة مثل “GPT-5-thinking” لتحقيق استجابة أكثر دقة وإنسانية .
رغم ترحيب عدد من خبراء السلامة بهذه الخطوة، إلا أنهم يحذرون من أن هذه التحديثات ليست كافية دون وجود إجراءات تحقق من السن ومنع الوصول غير المرخص، مؤكدين أن الرقابة الأبوية وحدها لا تضمن حماية فعالة إذا لم يتم دمج اختبارات أمان وإرشادات صارمة قبل إطلاق أي ميزة جديدة .
تُعد منصة ChatGPT من أبرز تطبيقات الذكاء الاصطناعي استخدامًا عالميًا، ويعتمد عليها مئات الملايين من المستخدمين أسبوعيًا، ولذلك تركز هذه الإصلاحات على جعل ChatGPT أكثر أمانًا وحساسية للمستخدمين من الفئات الهشة، خاصةً الشباب والمراهقين.
ويُشكّل هذا التحرك خطوة جوهرية نحو تعزيز الرقابة الأبوية، ويكسر الحاجز بين استعمال التقنيات المتطورة وبين الحفاظ على سلامة المستخدمين.
يمكنك أن تقرأ أيضًا:
بعد انتحار مراهق بسبب ChatGPT.. احذروا الدردشة مع الذكاء الاصطناعي
إنفوجرافيك| أبرز المواقع التي يعتمد عليها الذكاء الاصطناعي في الحصول على المعلومات