يونيو ٣٠, ٢٠٢٥
تابعنا
نبض
logo alelm
هل يمكن للذكاء اصطناعي أن يشعل حربًا نووية؟

تخيّل أن تبدأ الحرب العالمية الثالثة لا بسبب قرار بشري، بل نتيجة «خطأ تقني» ارتكبه ذكاء اصطناعي عاجز عن فهم النوايا أو التراجع عن الأحكام.

ليس هذا مشهدًا من رواية خيال علمي، بل تحذير واقعي أطلقه علماء وخبراء، في وقت تتكدس فيه الأسلحة النووية من جديد ويغيب العقل البشري تدريجيًا عن مفاتيح القرار.

في لحظة جيوسياسية مشحونة، تتعاظم المخاوف العالمية من اندلاع حرب كبرى، نتيجة سلسلة من التوترات المتصاعدة: الغزو الروسي لأوكرانيا مستمر دون أفق، والشرق الأوسط يغلي على حافة الانفجار، بينما يعامل دونالد ترامب مسألة التدخل في صراع إيران-إسرائيل كصفقة تجارية قابلة للتفاوض. لكن وسط هذا الضجيج، حذّر معهد دولي مستقل من عامل آخر قد يُسرّع نهاية العالم: الذكاء الاصطناعي حين يُمنح مفاتيح الترسانة النووية.

ونشر معهد ستوكهولم الدولي لأبحاث السلام (SIPRI)، المتخصص في النزاعات المسلحة، تحذيرًا شديد اللهجة هذا الأسبوع، كشف فيه أن دول العالم لا تكتفي بتكديس الأسلحة النووية بل تُدخل تعديلات تقنية متقدمة تشمل الذكاء الاصطناعي، ما يرفع خطر حدوث «خلل قاتل» لا تحمد عقباه.

هل نحن أمام سباق تسلّح جديد؟

يقول دان سميث، مدير المعهد، في التقرير الأخير، إننا «نشهد إشارات واضحة لسباق تسلّح نووي جديد في لحظة هي الأكثر هشاشة في الجغرافيا السياسية منذ عقود».

وبحسب الإحصاءات الواردة، بلغ عدد الرؤوس النووية عالميًا 12,241 رأسًا، معظمها بحوزة الولايات المتحدة وروسيا، فيما تستمر الصين، والهند، وباكستان، وكوريا الشمالية، والمملكة المتحدة، وفرنسا في تحديث ترساناتها. المقلق أن عدد الرؤوس الجديدة المُعدّة للنشر بات يفوق عدد تلك التي يتم تفكيكها، ما يشير إلى نهاية مرحلة خفض التسلّح التي أعقبت الحرب الباردة.

ما الذي يُقلق العلماء بشأن الذكاء الاصطناعي؟

في حالات الاشتباه بشنّ هجوم نووي، تملك الحكومات دقائق معدودة فقط لاتخاذ قرار الرد. إدخال الذكاء الاصطناعي في هذه المعادلة قد يُسرّع الاستجابة، لكنه في الوقت ذاته يُضاعف خطر ارتكاب خطأ قاتل بسبب «سوء فهم أو خلل تقني».

يقول سميث، إن «أحد عناصر سباق التسلّح القادم سيكون محاولة امتلاك تفوّق في الذكاء الاصطناعي، سواء لأغراض هجومية أو دفاعية»، محذرًا من أن «تبنّي الذكاء الاصطناعي بشكل غير مدروس قد يزيد من خطر الكارثة النووية».

ويتساءل هانز كريستنسن، الزميل البارز في برنامج أسلحة الدمار الشامل في المعهد: «هل يمكن أن نتخيل عالمًا تُسند فيه قرارات إطلاق السلاح النووي إلى آلات بلا مشاعر ولا ندم؟ إذا وصلنا إلى هذه النقطة، فسنكون على أعتاب سيناريو يوم القيامة بكل ما تعنيه الكلمة».

هل يمكن تفادي السيناريو الأسوأ؟

الجواب ليس بسيطًا. هناك من يرى أن دمج الذكاء الاصطناعي في أنظمة الدفاع قد يخفف من الهشاشة البشرية ويمنع الأخطاء الناتجة عن التوتر أو سوء التقدير. لكن الحقيقة أن أنظمة الذكاء، مهما بلغت دقتها، تفتقر إلى عنصر جوهري: الفهم السياقي الأخلاقي والإنساني.

في سياق متصل، تشير تقارير أمنية دولية إلى أن أنظمة الأسلحة القائمة على الذكاء الاصطناعي تفتقر إلى الشفافية والمساءلة، ما يضعف فرص الرقابة القانونية والدولية عليها. كما أن التنافس بين القوى الكبرى على التحديث السريع للأسلحة يعقّد أي اتفاق عالمي على تنظيم استخدام الذكاء الاصطناعي في المجال العسكري.

ما الذي يكشفه هذا التحذير عن علاقتنا بالتكنولوجيا؟

أبعد من السياسة، يطرح التحذير تساؤلًا فلسفيًا مريرًا: هل نُفرّط طواعية في آخر ما تبقّى من مسؤولية بشرية تجاه قرارات المصير؟ في زمن يُروّج فيه للذكاء الاصطناعي بوصفه حلًا لكل المشكلات، يبدو أن أعظم مخاطره تكمن في أوهامنا عنه، لا في قدراته الفعلية.

حين تضع الدول مستقبلها النووي بين يدي آلات لا تعرف التراجع، تصبح الأخطاء التقنية مرشحة لصناعة التاريخ بدلًا من السياسة. وقد لا تكون الحرب القادمة نتاج قرار استراتيجي، بل مجرّد سطر خاطئ في شيفرة برمجية.

شارك هذا المنشور:

السابقة المقالة

الدكتور تيد كازينسكي.. عبقري مثل نيوتن وسفاح مثل هتلر

المقالة التالية

إنفوجرافيك| مؤشرات على استئناف حرب إيران والاحتلال