أطلقت شركة أوبن إيه آي، ChatGPT agent، وهو ترقية لنموذجها الرئيسي في مجال الذكاء الاصطناعي، حيث تم تزويده بكمبيوتر افتراضي وأدوات مدمجة.
هذه الأدوات الجديدة تتيح له تنفيذ مهام معقدة ومتعددة الخطوات لم تكن الإصدارات السابقة من ChatGPT قادرة عليها، مثل التحكم في جهاز الكمبيوتر الخاص وإنجاز المهام نيابةً عن المستخدم.
ويُعد هذا الإصدار الأكثر قوة، لكنه ما زال يعتمد بدرجة كبيرة على إشراف بشري.
وجاء إطلاقه قبل فترة وجيزة من إعلان مارك زوكربيرغ أن باحثي ميتا لاحظوا أن نماذج الذكاء الاصطناعي لديهم بدأت تُظهر مؤشرات على التحسن الذاتي المستقل. كما تزامن إطلاقه أيضًا مع إصدار أوبن إيه آي للنموذج الأحدث GPT-5 – النسخة الأحدث من روبوت المحادثة التابع للشركة.
مع ChatGPT agent أصبح بإمكان المستخدمين الآن أن يطلبوا من نموذج اللغة الكبير (LLM) ليس فقط إجراء التحليل أو جمع البيانات، بل أيضًا اتخاذ إجراءات بناءً على تلك البيانات، وفقًا لما ذكرته الشركة في بيان.
فعلى سبيل المثال، يمكنك أن تطلب منه تقييم جدولك الزمني وتزويدك بملخص عن الفعاليات والتذكيرات القادمة، أو دراسة مجموعة من البيانات وتلخيصها. وبينما يمكن للنموذج التقليدي (LLM) البحث عن وصفات لإفطار على الطراز الياباني وتزويدك بها، فإن النموذج الجديد يمكنه أن يضع خطة كاملة ويشتري المكونات المطلوبة للإفطار نفسه لعدد محدد من الضيوف.
ومع ذلك، فإنه يعاني ضعف في الاستدلال المكاني، ويفتقر إلى ذاكرة مستمرة حقيقية، إذ يعالج المعلومات في اللحظة نفسها من دون قدرة موثوقة على الاستدعاء أو الرجوع إلى تفاعلات سابقة تتجاوز السياق المباشر.
ومع ذلك، أظهر ChatGPT agent تحسينات ملحوظة في اختبارات القياس الخاصة؛ ففي اختبار Humanity’s Last Exam -وهو معيار يقيس قدرة النموذج على الاستجابة لأسئلة بمستوى الخبراء في تخصصات متعددة- ضاعف معدل الدقة لأكثر من الضعف (41.6%) مقارنةً بنموذج OpenAI o3 من دون أدوات مدمجة (20.3%).
كما أنه حقق أداءً أفضل بكثير مقارنةً بالأدوات الأخرى، وكذلك مقارنةً بنسخة من نفسه كانت تفتقر إلى أدوات مثل المتصفح والكمبيوتر الافتراضي. وفي أصعب اختبار رياضي معروف عالميًا، FrontierMath، تفوّق مع مجموع أدواته مجددًا على النماذج السابقة بهامش واسع.
2. Deep research: مصمم لتمشيط كميات ضخمة من البيانات وتحليلها وتركيبها.
3. النسخ السابقة من ChatGPT: الطلاقة في المحادثة والقدرة على العرض.
وقال كوفي نياركو، أستاذ في جامعة مورجان ستيت ومدير مختبر أبحاث هندسة البيانات والتحليلات التنبؤية (DEPA): “ببساطة، يمكنه تصفح الويب بشكل مستقل، وإنشاء الأكواد، وإعداد الملفات، وغير ذلك – كل ذلك تحت إشراف بشري”.
فيما شدّد على أن ChatGPT agent لا يزال غير مستقل بشكل كامل. وأضاف: “الهلوسات، أو هشاشة واجهة المستخدم، أو سوء التفسير قد تؤدي إلى أخطاء. وآليات الحماية المدمجة -مثل طلبات الإذن وإمكانية المقاطعة- ضرورية، لكنها غير كافية لإزالة المخاطر بشكل كامل”.
وردًّا على التهديدات الجديدة التي يفرضها النموذج الأكثر استقلالية، قام مهندسو OpenAI أيضًا بتعزيز عدد من آليات الحماية، بحسب ما ذكره ممثلو الشركة في البيان.
وتشمل هذه الآليات: نمذجة التهديدات، وتدريب الرفض للاستخدام المزدوج؛حيث يتم تدريب النموذج على رفض الطلبات الضارة المتعلقة ببيانات يمكن أن يكون لها استخدام نافع أو خبيث، إلى جانب برامج مكافآت اكتشاف الثغرات، واختبارات الفريق الأحمر التي تركز على الدفاع البيولوجي، حيث يتم تحليل نقاط الضعف عبر مهاجمة النظام من الداخل.
بالرغم من تصريحات الشركة، أظهر تقييم SaferAI لإدارة المخاطر في يوليو 2025، أن سياسات OpenAI في إدارة المخاطر “ضعيفة”، ومنحتها 33% فقط، كما حصلت على درجة C في مؤشر سلامة الذكاء الاصطناعي (AI Safety Index).