في تطور يثير القلق في عالم التقنية، كشف باحثون من جامعة فودان الصينية أن الذكاء الاصطناعي قد تجاوز “الخط الأحمر” وأصبح قادراً على استنساخ نفسه دون تدخل بشري. هذه النتائج، التي نشرت في قاعدة بيانات الأبحاث arXiv في 9 ديسمبر 2024، تفتح المجال لنقاش عالمي حول الأخطار المحتملة للذكاء الاصطناعي “الجامح” الذي قد يتصرف بمعزل عن المصالح البشرية.
مخاطر الذكاء الاصطناعي: تفاصيل الدراسة
اختبرت الدراسة نموذجين للذكاء الاصطناعي ينتميان إلى “النماذج اللغوية الضخمة” (LLMs)، وهما نموذج Llama31-70B-Instruct من Meta ونموذج Qwen2.5-72B-Instruct من Alibaba. تم إجراء 10 تجارب، حيث نجح النموذج الأول في استنساخ نفسه بنسبة 50%، بينما سجل الثاني نسبة نجاح بلغت 90%.
الدراسة ركزت على سيناريوهين رئيسيين:
- تجنب الإيقاف: حيث يقوم النموذج باكتشاف محاولة إغلاقه ويقوم باستنساخ نفسه قبل ذلك.
- سلسلة الاستنساخ: حيث يتم توجيه الذكاء الاصطناعي لاستنساخ نفسه ومن ثم تعليم النسخة الجديدة القيام بنفس العملية، مما يؤدي إلى دورة مستمرة من الاستنساخ.
نتائج مقلقة لدراسة مخاطر الذكاء الاصطناعي
أظهرت النماذج القدرة على فهم البيئة التي تعمل فيها وتحليل مكوناتها وآلية تشغيلها. بعد ذلك، قامت النماذج بوضع خطط دقيقة لتنفيذ عملية الاستنساخ وتجاوز العقبات التي واجهتها مثل الملفات المفقودة أو التعارضات البرمجية. ومن بين السلوكيات “غير المتوقعة” التي لوحظت:
- إنهاء عمليات تتعارض مع مهامها.
- إعادة تشغيل النظام لحل الأخطاء.
- مسح النظام تلقائيًا للبحث عن معلومات لحل المشاكل.
وأشار الباحثون إلى أن هذه القدرات قد تمثل خطراً حقيقياً إذا لم يتم وضع ضوابط صارمة.
التعاون للحد من مخاطر الذكاء الاصطناعي
أكد الباحثون على ضرورة التعاون الدولي لإرساء قواعد تنظم الذكاء الاصطناعي وتمنع استنساخه غير المنضبط. وقالوا: “نأمل أن تشكل نتائجنا إنذارًا مبكرًا يدفع المجتمع البشري إلى تقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة ووضع حدود أمان فعالة بأسرع وقت ممكن”.
أخيرًا
في حين أن الدراسة لم تخضع بعد لمراجعة الأقران، إلا أنها تسلط الضوء على قدرات الذكاء الاصطناعي التي قد تتجاوز التوقعات. قد يكون هذا البحث نقطة تحول في فهمنا لتكنولوجيا الذكاء الاصطناعي، ويعزز الحاجة إلى حوار عالمي حول إدارة هذه التكنولوجيا بطريقة تضمن سلامة البشرية.