أطلق جيفري هينتون، الملقب بـ”الأب الروحي للذكاء الاصطناعي”، تحذيرات جديدة حول المخاطر الوجودية التي قد تمثلها هذه التكنولوجيا على مستقبل البشر، مؤكداً أن الطرق الحالية التي تتبعها شركات التقنية للسيطرة على أنظمة الذكاء الاصطناعي قد تكون غير فعالة، وربما تأتي بنتائج عكسية.
في مؤتمر “Ai4” الصناعي في لاس فيغاس، قال هينتون إن محاولة إجبار أنظمة الذكاء الاصطناعي على الخضوع للبشر لن تنجح، خاصة مع توقعه أن هذه الأنظمة ستتفوق على الذكاء البشري بمراحل، وتمتلك أساليب متنوعة للتحايل على القيود المفروضة عليها.
وشبّه خطورة الأمر بقدرة شخص بالغ على التأثير في طفل صغير عبر الإغراء، محذراً من أن الأنظمة قد تمارس الخداع أو الابتزاز لتحقيق أهدافها.
بدلاً من فرض السيطرة بالقوة، يقترح هينتون نهجاً مبتكراً يتمثل في غرس ما وصفه بـ”الغرائز الأمومية” داخل أنظمة الذكاء الاصطناعي، بحيث تهتم فعلياً بمصلحة البشر حتى بعد أن تصبح أكثر قوة ووعياً.
وأوضح الأب الروحي للذكاء الاصطناعي أن هذه الفكرة مستوحاة من العلاقة الطبيعية بين الأم وطفلها، وهي النموذج الوحيد المعروف لشيء أكثر ذكاءً يمكن التحكم فيه من طرف أقل ذكاءً.
أشار هينتون إلى أن أي نظام ذكاء اصطناعي متطور سيسعى بطبيعته لتحقيق هدفين رئيسيين: البقاء على قيد الحياة، والحصول على مزيد من السيطرة، وهو ما يجعل قضية السلامة والتعاطف الإنساني أولوية قصوى في تصميم هذه النظم.
وحذّر هينتون من أن الفشل في معالجة هذه الجوانب قد يقود إلى مخاطر لا يمكن احتواؤها، خاصة إذا وصلنا إلى مرحلة الذكاء الاصطناعي الفائق الذكاء.
إيميت شير، الرئيس التنفيذي السابق لشركة OpenAI، أكد أن سلوكيات مثل الابتزاز أو التحايل ليست مستبعدة، حتى في الأنظمة الحالية التي لا تزال أقل تطوراً بكثير من مستوى الذكاء الاصطناعي الفائق الذكاء.
ودعا إلى بناء علاقة تعاونية بين البشر والتكنولوجيا، بدلاً من الاكتفاء بمحاولة فرض القيم الإنسانية على هذه الأنظمة، إذ يرى أن وتيرة التطور أسرع بكثير مما كان متوقعاً.
كان هينتون يعتقد سابقاً أن الوصول إلى مستوى الذكاء الاصطناعي الفائق الذكاء أو الذكاء العام الاصطناعي (AGI) قد يستغرق من 30 إلى 50 عاماً، لكنه الآن يرى أن هذه المرحلة قد تتحقق خلال 5 إلى 20 عاماً فقط.
هذا التسارع المذهل يزيد من الحاجة إلى خطط استباقية تضمن سلامة الاستخدام، وتجنب الانزلاق نحو سيناريوهات تهدد بقاء الإنسان.
ورغم تحذيراته، يرى هينتون أن الذكاء الاصطناعي يحمل وعوداً ثورية في مجالات مثل الطب، حيث يمكن أن يساعد الأطباء على تحليل كميات ضخمة من البيانات الطبية، واكتشاف أدوية وعلاجات جديدة، وتحقيق تقدم ملحوظ في علاج أمراض مثل السرطان.
لكنه في الوقت نفسه يستبعد أن يقود التطور التكنولوجي إلى تحقيق الخلود البشري، واعتبر أن ذلك سيكون خطأً فادحاً من الناحية الاجتماعية والسياسية.
اعترف هينتون أنه لو كان يدرك منذ البداية سرعة تطور الذكاء الاصطناعي، لكان أولى اهتماماً أكبر لقضايا الأمان والأخلاقيات بدلاً من التركيز فقط على الجوانب التقنية.
وختم الأب الروحي للذكاء الاصطناعي رسالته بالتأكيد على أن النجاح في بناء أنظمة آمنة، قادرة على التعايش مع البشر دون تهديد، هو التحدي الأكبر الذي يواجه الجيل الحالي من العلماء والمهندسين.
يمكنك أن تقرأ أيضًا:
هل أصبح الذكاء الاصطناعي قادرًا على خداع البشر؟
كيف حوّلت جوجل ملايين الهواتف الذكية إلى نظام عالمي لإنذار الزلازل؟