أصبحت إيطاليا أول دولة في الغرب تحظر برنامج الدردشة الآلي المعتمد على الذكاء الاصطناعي “ChatGPT“، حيث أمرت هيئة مراقبة حماية البيانات الإيطالية شركة “OpenAI” بالتوقف مؤقتًا عن معالجة بيانات المستخدمين الإيطاليين وسط تحقيق في انتهاك مشتبه به لقواعد الخصوصية في أوروبا.
ليست إيطاليا الدولة الوحيدة التي تحسب الوتيرة السريعة لتقدم الذكاء الاصطناعي وآثاره على المجتمع، حيث تبتكر الحكومات الأخرى قواعدها لتنظيم استخدام تلك التقنية، فكيف يتم التعامل مع “chatGPT” حول العالم خلال الفترة الحالية؟
لا قيود في بريطانيا
أعلنت المملكة المتحدة الأسبوع الماضي عن خططها لتنظيم الذكاء الاصطناعي، فبدلاً من وضع لوائح جديدة، طلبت الحكومة من المنظمين في مختلف القطاعات تطبيق اللوائح الحالية على الذكاء الاصطناعي.
تحدد مقترحات المملكة المتحدة، التي لا تذكر “ChatGPT” بالاسم، بعض المبادئ الأساسية التي يجب على الشركات اتباعها عند استخدام الذكاء الاصطناعي في منتجاتها، بما في ذلك السلامة والشفافية والإنصاف والمساءلة والمنافسة.
لا تقترح بريطانيا في هذه المرحلة قيودًا على “ChatGPT”، أو أي نوع من الذكاء الاصطناعي، بل تريد التأكد من قيام الشركات بتطوير واستخدام أدوات الذكاء الاصطناعي بشكل مسؤول وإعطاء المستخدمين معلومات كافية حول كيفية وسبب اتخاذ قرارات معينة.
ما موقف الاتحاد الأوروبي؟
من المتوقع أن تتخذ بقية أوروبا موقفًا أكثر تقييدًا بكثير من الذكاء الاصطناعي من نظيراتها البريطانية، والتي تباعدت بشكل متزايد عن قوانين الاتحاد الأوروبي الرقمية بعد انسحاب المملكة المتحدة من الكتلة.
اقترح الاتحاد الأوروبي، تشريعًا رائدًا بشأن الذكاء الاصطناعي، حيث ستقيد القواعد المعروفة باسم قانون الذكاء الاصطناعي الأوروبي بشدة استخدامه في البنية التحتية الحيوية والتعليم وإنفاذ القانون والنظام القضائي.
تعتبر مسودة التشريع الجديد للاتحاد الأوروبي “ChatGPT” شكلاً من أشكال الذكاء الاصطناعي للأغراض العامة المستخدمة في التطبيقات عالية المخاطر.
تحدد اللجنة أنظمة الذكاء الاصطناعي عالية الخطورة على أنها تلك التي يمكن أن تؤثر على حقوق الناس الأساسية أو سلامتهم.
أمريكا تحاول الحد من المخاطر
لم تقترح الولايات المتحدة أي قواعد رسمية للرقابة على تكنولوجيا الذكاء الاصطناعي حتى الآن، في حين أن المعهد الوطني للعلوم والتكنولوجيا في البلاد وضع إطارًا وطنيًا يمنح الشركات التي تستخدم أو تصمم أو تنشر أنظمة الذكاء الاصطناعي إرشادات بشأن إدارة المخاطر والأضرار المحتملة.
في الشهر الماضي، تلقت لجنة التجارة الفيدرالية شكوى من مجموعة بحثية غير ربحية تزعم أن “GPT-4″، أحدث نموذج لغة لشركة “OpenAI”، “متحيز ومخادع ويشكل خطرًا على الخصوصية والسلامة العامة”.
يمكن أن تؤدي الشكوى إلى تحقيق مع الشركة وتعليق النشر التجاري لنماذجها اللغوية الكبيرة.
الصين تقدم البدائل الخاصة بها
لا يتوفر “ChatGPT” في الصين، ولا في دول مختلفة ذات رقابة شديدة على الإنترنت مثل كوريا الشمالية وإيران وروسيا.
لم يتم حظر روبوت الدردشة الشهير رسميًا في تلك البلدان، لكن “OpenAI” لا نسمح للمستخدمين فيها بالتسجيل.
تعمل العديد من شركات التكنولوجيا الكبيرة في الصين على تطوير بدائل، حيث أعلنت “Baidu”و”Alibaba” و”JD.com”، عن خططها للمنافسة.
كانت الصين حريصة على التأكد من أن عمالقة التقنية لديها يطورون المنتجات بما يتماشى مع لوائحها الصارمة.
في الشهر الماضي، أدخلت بكين تنظيمًا هو الأول من نوعه بشأن ما يسمى بـ “التزييف العميق”، أو الصور أو مقاطع الفيديو أو النصوص التي يتم إنشاؤها أو تعديلها صناعيًا باستخدام الذكاء الاصطناعي، ويمكن أن تنطبق مثل هذه اللوائح من الناحية النظرية على أي نوع من التقنية على غرار ChatGPT.
أول دولة تتخذ هذا الإجراء.. لماذا حظرت إيطاليا “chatGPT”؟