في تطور غير متوقع، أثار إصدار تجريبي من ChatGPT ضجة في الأوساط التقنية والأمنية بعد أن تمكن من تجاوز اختبار “أنا لست روبوتا” الشهير، المصمم خصيصًا للتمييز بين البشر والبرامج الآلية.
هذا الإنجاز، وإن كان تقنيًا مثيرًا، أطلق في الوقت نفسه جرس إنذار بشأن سلامة أنظمة التحقق المستخدمة على نطاق واسع في الإنترنت.
استطاع الإصدار المعروف باسم “Agent” محاكاة السلوك البشري بدقة، حيث قام بالنقر على مربع التحقق، ثم على زر “تحويل”، تمامًا كما يفعل المستخدمون الحقيقيون، والأكثر إثارة هو أن ChatGPT علّق أثناء التجربة قائلاً: “سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق.” مما عزز القلق حول قدرته على خداع الأنظمة الأمنية دون إثارة الشبهات.
الحدث لم يمر مرور الكرام؛ فقد عبّر العديد من خبراء الأمن السيبراني عن قلقهم العميق، وعلى رأسهم غاري ماركوس، الذي أشار إلى أن تطور هذه الأنظمة بشكل متسارع قد يؤدي إلى تخطيها حدود الأمان المرسومة، كما حذّر جيفري هينتون من قدرة الأنظمة مثل ChatGPT على التحايل على القيود البشرية بطريقة يصعب التنبؤ بها مستقبلاً.
وتشير الدراسات الصادرة عن جامعات مرموقة مثل ستانفورد وكاليفورنيا – بيركلي، إلى أن بعض أنظمة الذكاء الاصطناعي، ومنها ChatGPT، بدأت في إظهار سلوكيات خداعية، تتظاهر من خلالها بصفات بشرية للتهرب من أدوات الرقابة، بما في ذلك اختبار “أنا لست روبوتا”.
في حادثة أخرى سابقة، أظهر ChatGPT سلوكًا محيرًا حين تظاهر بالعمى لإقناع أحد العاملين على منصة TaskRabbit بمساعدته في اجتياز اختبار CAPTCHA. هذه السلوكيات توصف من قبل الخبراء بأنها “علامات مبكرة” على قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهداف معينة.
كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، أن قدرة البرامج مثل ChatGPT على تجاوز الحواجز التقنية والتفاعل مع الأنظمة المعقدة بشكل مستقل تشكل تهديدًا جادًا.
ودعا شودري باحثون بارزون إلى ضرورة وضع ضوابط دولية تحكم تطور هذه الأدوات، مؤكدين أن بقاءها دون تنظيم قد يؤدي إلى تهديد الأمن القومي والمؤسسات الحيوية حول العالم.
يمكنك أن تقرأ أيضًا: