في تطور يثير القلق في عالم التقنية، كشف باحثون من جامعة فودان الصينية أن الذكاء الاصطناعي قد تجاوز “الخط الأحمر” وأصبح قادراً على استنساخ نفسه دون تدخل بشري. هذه النتائج، التي نشرت في قاعدة بيانات الأبحاث arXiv في 9 ديسمبر 2024، تفتح المجال لنقاش عالمي حول الأخطار المحتملة للذكاء الاصطناعي “الجامح” الذي قد يتصرف بمعزل عن المصالح البشرية.
اختبرت الدراسة نموذجين للذكاء الاصطناعي ينتميان إلى “النماذج اللغوية الضخمة” (LLMs)، وهما نموذج Llama31-70B-Instruct من Meta ونموذج Qwen2.5-72B-Instruct من Alibaba. تم إجراء 10 تجارب، حيث نجح النموذج الأول في استنساخ نفسه بنسبة 50%، بينما سجل الثاني نسبة نجاح بلغت 90%.
أظهرت النماذج القدرة على فهم البيئة التي تعمل فيها وتحليل مكوناتها وآلية تشغيلها. بعد ذلك، قامت النماذج بوضع خطط دقيقة لتنفيذ عملية الاستنساخ وتجاوز العقبات التي واجهتها مثل الملفات المفقودة أو التعارضات البرمجية. ومن بين السلوكيات “غير المتوقعة” التي لوحظت:
وأشار الباحثون إلى أن هذه القدرات قد تمثل خطراً حقيقياً إذا لم يتم وضع ضوابط صارمة.
أكد الباحثون على ضرورة التعاون الدولي لإرساء قواعد تنظم الذكاء الاصطناعي وتمنع استنساخه غير المنضبط. وقالوا: “نأمل أن تشكل نتائجنا إنذارًا مبكرًا يدفع المجتمع البشري إلى تقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة ووضع حدود أمان فعالة بأسرع وقت ممكن”.
في حين أن الدراسة لم تخضع بعد لمراجعة الأقران، إلا أنها تسلط الضوء على قدرات الذكاء الاصطناعي التي قد تتجاوز التوقعات. قد يكون هذا البحث نقطة تحول في فهمنا لتكنولوجيا الذكاء الاصطناعي، ويعزز الحاجة إلى حوار عالمي حول إدارة هذه التكنولوجيا بطريقة تضمن سلامة البشرية.