بات الذكاء الاصطناعي اليوم قادرًا على ابتكار فيروسات جديدة كليًا، في تطور علمي مذهل يثير تساؤلات خطيرة حول قدرة البشر على ضبط الحدود الأخلاقية والأمنية لهذه التقنية، ومنعها من توليد السلاح البيولوجي التالي.
فقد نجح باحثون مؤخرًا في استخدام الذكاء الاصطناعي لتصميم فيروسات لم يسبق لها وجود، تختلف جذريًا عن الأنواع المعروفة، حتى إنها تُعد كيانات بيولوجية جديدة بالكامل. هذه الفيروسات من فئة العاثيات البكتيرية التي تصيب البكتيريا فقط، ولا تمس البشر أو الحيوانات أو النباتات، وقد أُجريت التجارب تحت رقابة صارمة لضمان عدم إنتاج أي سلالات ضارة.
لكن التطور ذاته يحمل وجهًا آخر أكثر قلقًا. ففي دراسة نُشرت في مجلة “ساينس” مؤخرًا، كشف باحثون من شركة مايكروسوفت أن بعض أنظمة الذكاء الاصطناعي يمكنها تجاوز بروتوكولات الأمان المفترضة، والتلاعب بآليات الحماية التي تمنع توليد جزيئات سامة أو خطرة، مما قد يسمح لجهات خبيثة بالتحايل على القيود بسهولة.
ومع اكتشاف هذا الخلل، طوّر الفريق تعديلات برمجية تقلل فرص إساءة الاستخدام بشكل كبير، لكن تطبيقها يتطلب معرفة تقنية متقدمة، ولا يمكن تنفيذها إلا في بيئات بحثية محدودة. ويشير الخبراء إلى أن هذه الحوادث تُبرز التحدي المتنامي في ضبط أدوات الذكاء الاصطناعي، التي باتت قادرة على توليد أشكال جديدة من الحياة، وربما – في أسوأ السيناريوهات – أسلحة بيولوجية تهدد البشرية.
ورغم أن الذكاء الاصطناعي لم يبلغ بعد مرحلة الخطر الحقيقي، فإن المسافة نحو ذلك المستقبل تتقلص بسرعة، ما يستدعي تحركًا منسقًا لوضع منظومات أمان وتشريعات قادرة على مواكبة سرعة التطور.
تكمن جوهر الإشكالية في ما يعرف بـ الاستخدام المزدوج، أي إمكانية توظيف التقنية ذاتها في أغراض نافعة أو مؤذية. فالتقنيات المستخدمة لتحسين أداء الفيروسات في الأبحاث الطبية، قد تُستخدم أيضًا لتصميم عوامل ممرضة شديدة الخطورة.
وفي هذا السياق، ابتكر باحثان من جامعة ستانفورد – الطالب سام كينغ وأستاذه برايان هي – عاثيات بكتيرية جديدة بالكامل باستخدام الذكاء الاصطناعي، بغرض مكافحة الالتهابات البكتيرية المستعصية التي تقاوم المضادات الحيوية. ورغم أن الهدف كان علاجيًا، أدرك الباحثان أن هذه التقنية قد تُستغل نظريًا لتوليد فيروسات ضارة بالبشر.
ولتفادي ذلك، حرص الفريق على تدريب نماذج الذكاء الاصطناعي باستخدام بيانات لا تشمل فيروسات تصيب الكائنات الحقيقية النواة، وأجرى اختبارات مكثفة لضمان أن النماذج لا تُنتج فيروسات قادرة على إصابة الإنسان أو الحيوان. وأوضح كينغ أن تطوير فيروس قاتل باستخدام الذكاء الاصطناعي “أصعب بكثير من الطرق التقليدية”، إذ تتطلب العملية مهارة عالية ووقتًا طويلًا، وهي بعيدة حاليًا عن أي خطر واقعي.
ويشير الخبراء إلى أن التطور المتسارع في قدرات الذكاء الاصطناعي يجعل ضبط الأمان مهمة متغيرة باستمرار. فالأنظمة الحديثة تُظهر “ذكاءً تكيفيًا” يمكنها من تجاوز القيود بمجرد تزويدها ببيانات كافية، ما يفرض على المطورين انتقاء البيانات المستخدمة في التدريب بعناية لتفادي المخاطر المستقبلية. وتعتمد شركات التقنية الحيوية على برامج فحص للكشف عن أي طلبات لتصنيع جزيئات سامة، لكنها ليست إلزامية في أغلب الدول. وقد أظهرت دراسة مايكروسوفت أن الذكاء الاصطناعي قادر على توليد تسلسلات جينية جديدة تؤدي الوظائف السامة نفسها دون أن تُكتشف، لأنها لا تتطابق مع أي تسلسل معروف في قواعد البيانات.
ولمواجهة هذه الثغرة، أطلقت مايكروسوفت مبادرة تعاون دولي لتطوير تصحيحات أمنية، وأعلنت في نهاية سبتمبر أن التحديثات أصبحت متاحة عالميًا لتعزيز أنظمة الفحص. ومع ذلك، تبيّن أن نحو 3% من الجينات الخطرة لا تزال قادرة على تجاوز الفلاتر الأمنية الأكثر استخدامًا. ولهذا، اعتمدت الشركة نظام وصول متعدد المراحل للبيانات الحساسة، بحيث يُطلب من الباحثين إذن رسمي من المبادرة الدولية للأمن البيولوجي (IBBIS) للاطلاع الكامل على المعلومات.
ووصفت تيسا أليكسانيان من منظمة Common Mechanism هذه الخطوة بأنها “سابقة علمية مهمة”، إذ تمثل أول محاولة عملية لتنظيم مشاركة البيانات الحساسة في الأبحاث البيولوجية بشكل آمن ومنضبط.
حتى الآن، لا توجد تشريعات دولية واضحة تنظم استخدام الذكاء الاصطناعي في المجالات البيولوجية، كما أن تطبيق إجراءات الفحص ما زال طوعيًا. ويزداد الخطر مع ظهور تقنيات مخبرية قادرة على تصنيع البروتينات والحمض النووي دون الحاجة إلى شركات خارجية، ما يجعل تتبع الاستخدامات غير القانونية أكثر صعوبة. غير أن بعض الدول بدأت بالفعل في تعزيز الأطر التنظيمية. ففي الولايات المتحدة، نصّ الأمر التنفيذي لعام 2023 على ضرورة وضع سياسات تضمن سلامة الذكاء الاصطناعي، بما في ذلك تقييمات دقيقة ومعايير موحدة لتقليل المخاطر، مع تقييد التمويل الفيدرالي للأبحاث التي لا تُطبق اختبارات أمان كافية.
وفي بريطانيا، يمول معهد أمن الذكاء الاصطناعي أبحاثًا لحماية النماذج من سوء الاستخدام ومنع اختراقها، إضافة إلى تطوير سياسات تحد من استغلال النماذج مفتوحة المصدر لأغراض ضارة. ورغم كل هذه المخاوف، فإن زيادة تعقيد الجينات المصممة بالذكاء الاصطناعي تتيح في الوقت ذاته تحسين قدرة أنظمة الأمان على رصد الأنماط المشبوهة. فكلما ازدادت البيانات، أصبح من الأسهل تحليلها وكشف التهديدات المحتملة في وقت مبكر.
تسعى مايكروسوفت حاليًا إلى توظيف الذكاء الاصطناعي في مراقبة النشاط البيولوجي العالمي، مثل تحليل الهواء والمياه لاكتشاف أي مؤشرات على تصنيع مواد أو فيروسات خطيرة. ورغم أن الذكاء الاصطناعي قادر نظريًا على تصميم جينومات جديدة لأنواع من البكتيريا أو الكائنات الحية، فإن تحويل هذه التصاميم إلى كائنات حقيقية لا يزال تحديًا معقدًا للغاية، يتطلب تقنيات مختبرية متقدمة غير متاحة إلا لعدد محدود من المراكز.
لكن الخبراء يحذرون من أن هذا الوضع قد يتغير سريعًا، وأنه من الضروري التحرك المشترك بين الحكومات والمؤسسات البحثية لضمان بقاء حدود الأمان قائمة مع ازدياد قوة النماذج. وتختتم البروفيسورة تينا هيرنانديز-بوسارد من جامعة ستانفورد بقولها: “التحدي الحقيقي ليس في قدرة الذكاء الاصطناعي على الخلق، بل في قدرتنا نحن على وضع معايير تمنع تحوّل العلم إلى خطر على الإنسانية. الحل في التعاون بين المؤسسات الأكاديمية والصناعية والبحثية لبناء منظومة تقييم شاملة تضمن أن تظل هذه التقنية في خدمة البشر، لا تهديدًا لهم”.