بحثت دراسة جديدة في إمكانية إساءة استخدام الذكاء الاصطناعي في الوصول إلى اللاوعي لدينا، كما كشفت فضيحة كامبريدج أناليتيكا. فهو ينتقد تنظيم الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي بسبب أوجه القصور في الحماية من التلاعب اللاواعي، مما يؤكد الحاجة إلى ضمانات أكبر للخصوصية في عالمنا الذي يعتمد على البيانات بشكل متزايد.
ويمكن لقانون الاتحاد الأوروبي الجديد بشأن الذكاء الاصطناعي أن يسمح للذكاء الاصطناعي بالوصول إلى عقولنا الباطنة، حسب ما يذكر موقع scitechdaily في تقرير مطوّل.
تحليلات البيانات المتقدمة
كان استخدام البيانات الشخصية من منشورات الملايين على فيسبوك وتحليلات البيانات المتقدمة للتأثير على النتائج السياسية في الولايات المتحدة والمملكة المتحدة ذات يوم مفهومًا ينتمي إلى عالم الخيال العلمي.
يقول الموقع: “ومع ذلك، فإن أحداث فضيحة كامبريدج أناليتيكا عام 2018 جعلت هذا السيناريو واقعًا. سلطت هذه الحادثة الضوء على كيف أدى التقدم السريع في التكنولوجيا والذكاء الآلي إلى ظهور تحديات ومعضلات أخلاقية جديدة لم يكن من الممكن تصورها من قبل”.
وتدعو مبادرة الحقوق العصبية التي تقودها مؤسسة الحقوق العصبية إلى الاعتراف بمجموعة جديدة من تدابير الحماية ضد تحديات هذه التطورات التقنية. وتجري مناقشة بعض هذه الأمور فيما يتصل بقانون الذكاء الاصطناعي الذي يجري التفاوض بشأنه حاليا داخل الهيئات الإدارية للاتحاد الأوروبي. ويجب أن ينظم هذا القانون، من بين أمور أخرى، قدرة الذكاء الاصطناعي على التأثير على اللاوعي لدينا (على غرار قضية كامبريدج أناليتيكا ولكن على مستويات أعمق بكثير).
نشر إغناسي بلتران دي هيريديا، عميد كلية الحقوق والعلوم السياسية في جامعة كاتالونيا المفتوحة (UOC) ومؤلف كتاب “الذكاء الاصطناعي والعصبي” (أرانزادي، 2023)، مقالًا يتناول مسألة التحديات التي نواجهها نتيجة للتقدم في مجال الذكاء الاصطناعي والتشكيك في مشروع قانون الاتحاد الأوروبي الأخير من منظور علم الأعصاب.
مخاطر الذكاء الاصطناعي
ووفقا للتقديرات، فإن 5% فقط من نشاط الدماغ البشري يكون واعيا. أما الـ 95% المتبقية فهي تحدث دون وعي، وليس فقط ليس لدينا أي سيطرة حقيقية عليها، ولكننا أيضًا لا ندرك حتى أنها تحدث. كما أشار بلتران دي هيريديا في مقالته، نحن غير مدركين لهذا السيل الاستثنائي من النشاط العصبي بسبب التعقيد العالي للتفاعل بين عقلنا الواعي وسلوكنا اللاواعي وافتقارنا التام للسيطرة على القوى التي توجه حياتنا.
ومع ذلك، هذا لا يعني أنه لا يمكن التأثير على الناس دون وعي. وأوضح: “هناك طريقتان للذكاء الاصطناعي للقيام بذلك؛ الأولى من خلال جمع البيانات حول حياة الناس وإنشاء بنية القرار التي تقودك إلى اتخاذ قرار معين. والثانية – وهي الأقل تطورًا حاليًا – تتضمن استخدام التطبيقات أو الأجهزة لإنشاء نبضات مباشرة لا يقاومها عقلنا الباطن من أجل توليد استجابات اندفاعية على مستوى لا شعوري، أي خلق نبضات”.
وبينما يقوم الباحثون تدريجياً بتطوير آلات أفضل وأكثر قوة ونصبح أكثر ارتباطاً بها، فإن كلا الخيارين سيصبحان منتشرين على نطاق واسع، علماً بأنه سوف تحتوي الخوارزميات على مزيد من المعلومات حول حياتنا، وسيكون إنشاء الأدوات اللازمة لتوليد هذه الاستجابات الاندفاعية أسهل، فيما يتمثل خطر هذه التقنيات هو أنها، تمامًا مثل عازف المزمار في هاملين، ستجعلنا نرقص دون معرفة السبب.
ويرى بلتران دي هيريديا أن المجال الذي من المرجح أن نرى فيه المحاولات الأولى للتأثير على السلوك البشري من خلال الذكاء الاصطناعي هو مجال العمل، وبشكل أكثر تحديدًا الصحة المهنية. ويقول إن عددًا من التقنيات التدخلية قيد الاستخدام حاليًا.
وتشمل هذه الأجهزة التي تراقب سائقي الحافلات للكشف عن أجهزة استشعار النوم الدقيق أو تخطيط كهربية الدماغ (EEG) التي يستخدمها أصحاب العمل لمراقبة الموجات الدماغية للموظفين لمعرفة مستويات التوتر والانتباه أثناء العمل.
يضيف: “من الصعب التنبؤ بالمستقبل، ولكن إذا لم نقم بتقييد مثل هذه التقنيات المتطفلة بينما لا تزال في المراحل الأولى من التطوير، فإن السيناريو الأكثر ترجيحًا هو أنها ستستمر في التحسن ونشر محلاقها باسم الإنتاجية “.
اقرأ أيضاً:
قلق الذكاء الاصطناعي.. مستقبل البشر محفوف بالمخاطر!
إنجازات مخيفة سيحققها الذكاء الاصطناعي في عام 2024
مركز الذكاء الاصطناعي للطاقة.. طريق المملكة نحو الريادة العالمية