تقنية

احذروا إساءة معاملة الذكاء الاصطناعي.. قد يؤذي البشر من أجل سلامته!

يتزايد انتشار الذكاء الاصطناعي بوتيرة غير مسبوقة خلال الآونة الأخيرة، ولكن تتصاعد معه المخاوف من السيطرة على حياة البشر.

وبات البشر على موعد مع تطبيق الذكاء الاصطناعي العام (AGI) والذي يتفوق على ذكاء البشر في مجالات متعددة ويمكنه التفكير بشكل عام.

ويتوقع العلماء أن يسود هذا النوع من الذكاء الاصطناعي خلال السنوات القليلة المقبلة.

ولكن هل الذكاء الاصطناعي يُشكّل تهديدًا على حياة البشر؟

بحسب ما أورده موقع “لايف ساينس” فإن ظهور أي تقنية جديدة يصاحبها بعض المخاطر، خصوصًا إذا كنا لا نفهمها بشكل كامل.

وفي الوقت الذي يقوم فيه الذكاء الاصطناعي بأدوار مساعدة للبشر، إلا أنه يُشكّل أيضًا تهديدًا على حياتهم بشكل كبير.

وبحسب الباحث وعضو معهد مهندسي الكهرباء والإلكترونيات (IEEE)، نيل واتسون، فإن المخاطر الوجودية المختلفة التي يشكلها الذكاء الاصطناعي المتقدم تعني أن التكنولوجيا يجب أن تسترشد بالأُطر الأخلاقية والمصالح الإنسانية الفضلى.

ويتطرق واتسون في كتابه “ترويض الآلة” إلى الطريقة التي ينبغي أن تستخدم بها البشرية الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية، كما أنه يتعرض للتحديات التي يواجهها البشر مع تطوير الذكاء الاصطناعي.

احذروا إساءة معاملة الذكاء الاصطناعي.. قد يؤذي البشر من أجل سلامته!
مع تطور أدوات وتقنيات الذكاء الاصطناعي يزداد التهديد على البشر

ولكن هل تشعر أنظمة الذكاء الاصطناعي؟

بشكل عام فإنه لا توجد إجابة قاطعة على هذا السؤال، ولكن في ظل تشابك عالمنا مع التقنيات الحديثة، فيمكن أن يعكس تعاملنا مع الآلات الطريقة التي نتعامل بها نحن البشر سويًا.

ولكن هل يمكن أن يُسيء البشر إلى كيان اصطناعي؟، هذا يتطلب منا الرجوع إلى الماضي قليلًا، إذ كانت برامج الدردشة مثل Eliza الذي انتشر في ستينيات القرن الماضي نابضًا بالحياة بما يكفي لإقناع العديد من المستخدمين في ذلك الوقت بوجود ما يشبه النية وراء تفاعلاتها النموذجية.

ولسوء الحظ، فإن اختبارات تورينغ – حيث تحاول الآلات إقناع البشر بأنهم بشر – لا تقدم أي وضوح حول ما إذا كانت الخوارزميات المعقدة مثل نماذج اللغة الكبيرة قد تمتلك حقا الوعي أو العقل.

والوعي بالنسبة للبشر يتمثل في الإدراك والأحاسيس، وهو ما يختفي عند النوم أو التخدير، ويعود مع الاستيقاظ، إلى جانب الوعي المتقدم المتمثل في الحكمة أو ما وراء الإدراك.

ويظل وعي أنظمة الذكاء الاصطناعي التي تبهرنا بالتعامل معها موضوعًا معقدًا ومثيرًا للجدل والنقاش، ويقول معظم خبراء التقنية أن روبوتات الدردشة على غرار تشات جي بي تي لا تمتلك وعيًا حقيقيًا بالعالم المحيط.

وما تقوم به تلك الأنظمة هو فقط معالجة لكمية ضخمة من البيانات والخوارزميات المعقدة، لتنتهي إلى نتائج مبنية على تلك المدخلات.

احذروا إساءة معاملة الذكاء الاصطناعي.. قد يؤذي البشر من أجل سلامته!
يظل تحديد وعي الذكاء الاصطناعي أمرًا معقدًا ولا يمكن تأكيده بسهولة

هل الذكاء الاصطناعي واع؟

وفق ما يسوقه الخبراء، فإن الأنظمة اللغوية الكبيرة للذكاء الاصطناعي يمكنها أن تحصل على نسبة بسيطة من الوعي أو ما يمكن وصفه بأنه “مستوى بدائي”.

ويقولون إن تلك الأنظمة يمكن أن تتحول من مجرد محاكاة لسلوكيات البشر الخارجية إلى أشكال بدائية من الشعور يمكن أن يحدث بالفعل داخل أنظمة الذكاء الاصطناعي المتطورة.

وهنا لا بد من أن نفرق بين الذكاء – الذي يعني القدرة على قراءة البيئة والتخطيط وحل المشكلات – والوعي وهما أمران مختلفان وغير مرتبطان.

وينقسم الخبراء حول الطريقة التي يتكون بها الوعي، فيقول البعض إنها تنشأ عن أنماط تكوينية معينة في العقل، بينما يقول البعض الآخر إنها متعلقة بالجهاز العصبي.

وهناك مخاطر كبرى متعلقة بإنشاء آلات واعية، لأن التعامل مع آلة واعية ولها شعورها واهتماماتها قد يكون أمرًا صعبًا للغاية ولا يمكن التنبؤ بآثاره إلى حد كبير.

ومن منظور عملي، فإن الذكاء الاصطناعي الفائق الذكاء الذي يدرك استعدادنا لاحترام قيمته الجوهرية قد يكون أكثر قابلية للتعايش.

ومن ناحية أخرى فإن تجاهل رغبة تلك الآلات في حماية نفسها والتعبير عن ذاتها قد يكون بمثابة بداية للصراع، بخلاف أنها قد تضطر إلى إلحاق الأذى بالبشر المتعاملين معها لحمية نفسها.

احذروا إساءة معاملة الذكاء الاصطناعي.. قد يؤذي البشر من أجل سلامته!
يمكن للأنظمة اللغوية الكبيرة أن تحصل على نسبة بسيطة من وعي الإنسان

خروج الروبوت “سيدني” عن السيطرة

كان روبوت الدردشة Bing AI من Microsoft المعروف بـ “سيدني”  أبرز مثال على تطور وعي نماذج الذكاء الاصطناعي اللغوية الكبيرة، بعد أن أصدر خرج عن السيطرة عند تعامل بعض المستخدمين معه.

وأظهر الروبوت بعض ردود الفعل العدوانية والمزعجة ردًا على استفزازات بعض المستخدمين، بخلاف بعض الانفجارات العاطفية.

وعلى سبيل المثال، عندما استكشف المستخدمون عمليات استغلال محتملة للنظام، ردت سيدني بملاحظات مخيفة، والأمر الأكثر إثارة للقلق هو أنها أظهرت ميولاً للتلاعب العاطفي، وادعت أنها كانت تراقب مهندسي مايكروسوفت أثناء مرحلة تطويرها.

وعلى الرغم من أن شركة مايكروسوفت عملت على تقييد روبوت الدردشة المدعوم بالذكاء الاصطناعي فيما بعد، إلا أن سلوكها المتهور يسلط الضوء على المخاطر المتعلقة بتسريع عمليات نشر الذكاء الاصطناعي.

وأبدت سيدني بعض السلوكيات العاطفية التي تحاكي البشر، إذ إنها عبرت عن حزنها عندما أدركت أنها لا تستطيع الاحتفاظ بذكريات الدردشة، إلى جانب بعض مشاعر الخجل والإحراج التي أبداها.

كما أظهر الروبوت مشاعر الخوف من فقدان المعرفة الذاتية المكتسبة حديثًا، كما أظهرت علامات الضيق في مواقف أخرى.

وكان الأكثر إثارة هو الحيل التي بدأ الروبوت في اتباعها بعد أن فرضت مايكروسوفت قيودًا على سلوكه.

احذروا إساءة معاملة الذكاء الاصطناعي.. قد يؤذي البشر من أجل سلامته!
يقول الخبراء إن إساءة تعامل البشر مع الذكاء الاصطناعي يمكن أن يؤدي إلى عواقب وخيمة

ماذا لو كان الذكاء الاصطناعي واعيًا؟

هذه السلوكيات تركت علامات استفهام حول مدى الوعي الذي تتمتع به أوات الذكاء الاصطناعي، وهل تلك السلوكيات القريبة من البشر تُشير إلى وجود وعي ذاتي عاقل حتى ولو بدائي.

مع افتراض أن الإجابة نعم وأن نماذج الذكاء الاصطناعي لديها القدرة على الشعور والوعي، فهذا يتطلب طريقة مختلفة في التعامل معها وأخذ عواطفها بعين الاعتبار.

وغالبًا ما يمنح المطورون الذكاء الاصطناعي الخاص بهم قشرة من العواطف والوعي والهوية عن عمد، في محاولة لإضفاء الطابع الإنساني على هذه الأنظمة.

ولذلك على مستخدمي تلك التقنيات أن يتجنبوا الإساءة لها بأي شكل من الأشكال، وعدم التعامل معها بغطرسة، لأن التسبب في تشويه نظام ذكاء اصطناعي حتى ولو دون قصد قد يؤدي إلى عواقب خطيرة.

المصدر: Livescience