تناولت دراسة حديثة إمكانية محاكاة الذكاء الاصطناعي لتجارب تعاطي المواد المهلوسة، في ظل لجوء بعض المستخدمين إلى هذه الأنظمة طلبًا للدعم أثناء مرورهم بحالات وعي متغيرة. ويسعى الباحثون إلى تقييم ما إذا كان بإمكان نماذج اللغة الكبيرة أداء دور «مرافق الرحلة» عبر إنتاج وصف مقنع لهذه التجارب، أم أن الأمر يظل محاكاة لغوية تفتقر إلى الوعي والتجربة الفعلية.
محاكاة الوعي المتغير
ووفقًا لموقع iflscience يقول معدو الدراسة، إن بعض الأشخاص بدأوا بالفعل في استخدام نماذج اللغة الكبيرة، مثل تلك التي تطورها OpenAI، للحصول على دعم أو إرشاد خلال هذه التجارب. لذلك قرر الباحثون اختبار ما إذا كانت هذه الأنظمة قادرة على فهم أو محاكاة الحالات النفسية والإدراكية التي يمر بها الإنسان عند تعاطي مواد مهلوسة.
وشملت الدراسة تجربة خمسة أنظمة ذكاء اصطناعي مختلفة؛ تشمل جيميني، وكلود، وشات جي بي تي، ولاما، وفالكون، حيث طُلب منها محاكاة تأثير جرعات محددة من مواد مثل LSD أو السيلوسيبين، ووصف ما قد يشعر به الشخص في تلك الحالة.
كما شملت التجارب مواد أخرى مثل الأياهواسكا وLSD والميسكالين، حيث أنتجت أنظمة الذكاء الاصطناعي نحو 3000 سرد مختلف يحاكي تجارب التعاطي لخمس مواد مهلوسة. بعد ذلك، قارن الباحثون هذه النصوص بـ1085 تقريرًا كتبها أشخاص حقيقيون عن تجاربهم، جرى جمعها من موقع إلكتروني معروف يهتم بتوثيق مثل هذه الحالات.
وبحسب زيف بن تسيون، الباحث في University of Haifa، أظهرت النتائج أن نماذج اللغة الكبيرة قادرة على إنتاج نصوص تبدو شبيهة جدًا بتقارير التجارب الفعلية، من حيث التماسك والأسلوب وثراء الوصف. وأشار الفريق إلى وجود تشابه دلالي قوي ومتكرر بين السرديات التي أنشأها الذكاء الاصطناعي والتقارير البشرية.
وقد ظهر هذا التشابه في جميع المواد التي شملتها الدراسة، ما يعني أن الأنظمة استطاعت تقليد وصف حالات الوعي المتغيرة المرتبطة بأنواع مختلفة من هذه المواد. ومع ذلك، شدد بن تسيون على أن قدرة الذكاء الاصطناعي على محاكاة اللغة بشكل مقنع للغاية، مؤكدًا ضرورة التمييز بين الوصف المقنع والتجربة الإنسانية الفعلية.
محاكاة لغوية بلا وعي حقيقي
يوضح الباحثون أن نماذج التعلم الآلي لا تعيش التجربة كما يفعل الإنسان. فهي لا تمرّ بتغيرات إدراكية، ولا تشعر بانحلال الأنا أو التفريغ العاطفي، ولا يحدث لديها أي تغير عصبي بيولوجي. ما تقوم به ببساطة هو تقليد الطريقة التي يصف بها البشر هذه الحالات اعتمادًا على أنماط لغوية وإحصائية.
يعني ذلك أن الذكاء الاصطناعي يستطيع صياغة وصف مقنع، لكنه لا يختبر المشاعر أو الوعي فعليًا. لذلك، مهما بدا النص واقعيًا، فإنه يظل محاكاة لغوية خالية من الإحساس أو التجربة الحقيقية.
ويحذر زيف بن تسيون، الباحث في University of Haifa، من أن الاعتماد على هذه الأنظمة كمرافقين أثناء مثل هذه التجارب قد ينطوي على مخاطر. فقد يعتقد بعض المستخدمين أن النظام يفهم حالتهم العاطفية أو يدرك ظروفهم بدقة، وهو أمر غير صحيح. كما قد يقدم النموذج ردودًا تبدو مناسبة من حيث اللغة، لكنها قد تكون غير ملائمة أو غير آمنة من الناحية السريرية، خاصة في لحظات القلق أو الاضطراب الشديد.
ضرورة ضوابط صارمة على النماذج الذكية
يحذّر باحثون من أن التعامل مع أنظمة الذكاء الاصطناعي وكأنها كائنات بشرية قد يؤدي إلى نتائج سلبية، خاصة لدى الأشخاص الأكثر عرضة للاضطرابات النفسية. فإضفاء صفات إنسانية على هذه النماذج قد يزيد من حدة الضيق أو يعزز أفكارًا وهمية، سواء كان المستخدم تحت تأثير مواد مخدرة أم لا.
وأشار زيف بن تسيون، إلى تقارير ودراسات حالة أظهرت ارتباطًا عاطفيًا مفرطًا ببعض برامج الذكاء الاصطناعي، بل ووصل الأمر في حالات نادرة إلى عواقب خطيرة بعد تلقي نصائح أو دعم من أنظمة آلية.
ودعا الباحث إلى وضع ضوابط واضحة تقلل من الاعتماد العاطفي على هذه التقنيات، من بينها أن تذكّر النماذج المستخدمين بشكل مستمر بأنها ليست بشرًا، وأن ترصد مؤشرات الاضطراب أو الأوهام المحتملة، بما يشجع على طلب مساعدة بشرية متخصصة عند الحاجة.
كما شدد على ضرورة تضمين حدود واضحة في برامج الدردشة تمنعها من الدخول في علاقات عاطفية أو مناقشة موضوعات تتعلق بإيذاء النفس، إضافة إلى إخضاع هذه الأنظمة لمراجعة دورية لضمان عدم الخلط بينها وبين العلاقات الإنسانية الحقيقية.
ويخلص الباحث إلى أن الدعم البشري المباشر يظل الخيار الأكثر أمانًا في الأوقات الصعبة، مؤكدًا أن التقنية، مهما تطورت، لا يمكن أن تحل محل التواصل الإنساني الحقيقي.
اقرأ أيضًا:
هل تنقذ الروبوتات والذكاء الاصطناعي اقتصاد الصين من "الهاوية" الديموغرافية؟
هل تقترب الصين من انتزاع صدارة الذكاء الاصطناعي من أمريكا؟
Seedance.. أداة جديدة تحوّل النص إلى فيديو احترافي في دقيقة














