تقنية

لا يوجد دليل حقيقي على إمكانية التحكم في الذكاء الاصطناعي

الذكاء الاصطناعي الخروج عن السيطرة التحكم به غياب عد وجزد لا يوجد ديليل أدلة إثبات خطورة مخاطر أطماع الاستقلال التمرد على البشر

يشهد العالم اليوم انتشارًا متزايدًا لتطبيقات الذكاء الاصطناعي في مختلف المجالات، من الطب إلى التكنولوجيا والصناعة.

وعلى الرغم من فوائد هذه التقنية، إلا أن هناك مخاوف متزايدة تتعلق بالخصوصية، وتأثيراتها على سوق العمل، وتفاقم الفجوة الرقمية، وتحتم هذه المخاوف على العالم وضع ضوابط شاملة لتوجيه سياسات وأخلاقيات استخدام الذكاء الاصطناعي في المستقبل.

مدى التحكم في الذكاء الاصطناعي

لا تتوقف خطورة الذكاء الاصطناعي على إمكانية اختراق الخصوصية، بل إن المخاطر تتضمن خروجه عن السيطرة، وألا يتمكن البشر من التحكم به.

وفي هذا الصدد حذر الدكتور رومان ف. يامبولسكي، أستاذ علوم الكمبيوتر بجامعة لويزفيل، ومؤسس مختبر الأمن الالكتروني، وصاحب عدة مؤلفات متخصصة أبرزها “الذكاء الاصطناعي الخارق، من غياب الأدلة على إمكانية التحكم في الذكاء الاصطناعي مطالبًا باتباع نهج حذر في تطوير الذكاء الاصطناعي، مع التركيز على السلامة وتقليل المخاطر.

وأكد يامبولسكي أن مشكلة التحكم الذكاء الاصطناعي قد تكون واحدة من أهم المشاكل التي تواجه البشرية، إلا أنها لا تزال غير مفهومة بشكل جيد، وسيئة التعريف، وسيئة البحث.

وأشار إلى أن ما يشهده العالم من تطور سريع في مجال الذكاء الاصطناعي جعلنا أمام خيارين، الازدهار أو الانقراض، معتبرًا مصير الكون على المحك.

وشدد الدكتور يامبولسكي إلى أنه قام بمراجعة واسعة النطاق للأدبيات العلمية المتعلقة بالذكاء الاصطناعي، وذكر أنه لم يجد أي دليل على إمكانية التحكم في الذكاء الاصطناعي بأمان وحتى لو كانت هناك بعض الضوابط الجزئية، فلن تكون كافية.

ما هي العقبات؟

يختلف الذكاء الاصطناعي والذكاء الفائق عن البرامج الأخرى من خلال قدرته على تعلم سلوكيات جديدة، وضبط أدائه، والتصرف بشكل شبه مستقل في المواقف الجديدة.

إحدى المشكلات المتعلقة بجعل الذكاء الاصطناعي “آمنًا” هي أن القرارات والإخفاقات المحتملة من قبل كائن فائق الذكاء عندما يصبح أكثر قدرة لا حصر لها، لذلك هناك عدد لا حصر له من مشكلات السلامة، وأن مجرد التنبؤ بالمشكلات ليس ممكنًا وقد لا يكون التخفيف منها في التصحيحات الأمنية كافيًا.

وأوضح يامبولسكي أن الذكاء الاصطناعي لا يستطيع تفسير ما قرره، ولا يمكننا فهم التفسير المقدم لأن البشر ليسوا أذكياء بما يكفي لفهم المفاهيم المطبقة.

وإذا لم نفهم قرارات الذكاء الاصطناعي، فلن نتمكن من فهم المشكلة وتقليل احتمالية وقوع حوادث في المستقبل.

على سبيل المثال، تم بالفعل تكليف أنظمة الذكاء الاصطناعي باتخاذ القرارات في مجالات الرعاية الصحية والاستثمار والتوظيف والخدمات المصرفية والأمن، على سبيل المثال لا الحصر، ويجب أن تكون مثل هذه الأنظمة قادرة على شرح كيفية وصولها إلى قراراتها، وخاصة لإظهار أنها خالية من التحيز.

ويؤكد الدكتور يامبولسكي أننا إذا اعتدنا قبول إجابات الذكاء الاصطناعي دون تفسير، والتعامل معه بشكل أساسي كنظام أوراكل، فلن نكون قادرين على معرفة ما إذا كان يبدأ في تقديم إجابات خاطئة أو تلاعبية”.

التقليل من المخاطر

يرى الدكتور رومان ف. يامبولسكي أنه لا بد من أن يكون الذكاء الاصطناعي قابلاً للتعديل من خلال خيارات “التراجع”، وأن يكون محدودًا وشفافًا وسهل الفهم باللغة البشرية لتقليل مخاطره.

ويقترح يامبولسكي تصنيف كل أنواع الذكاء الاصطناعي بين يمكن السيطرة عليها أو لا يمكن السيطرة عليها، ولا ينبغي استبعاد أي احتمال، وينبغي النظر في الحظر الجزئي على أنواع معينة من تكنولوجيا الذكاء الاصطناعي.

اقرأ أيضاً:

رواد سوق البنية التحتية السحابية حول العالم

الهيئة الملكية لمحافظة العلا تُطلق لعبة “البحث عن الأمل”

ChatGPT في 2024.. مزايا جديدة لروبوت الدردشة بالذكاء الاصطناعي الأشهر عالميًا