تقنية

مخاطر الذكاء الاصطناعي.. تحذيرات من موظفي عمالقة تطوير التقنية

مخاطر-الذكاء-الاصطناعي

تتعالى الأصوات التي تحذّر من مخاطر استخدام تقنيات الذكاء الاصطناعي مع تطوّرها بوتيرة سريعة، وهو الأمر الذي بدأ منذ إطلاق “ChatGPT” في أواخر 2022، وتبعه ظهور أدوات مشابهة يمكنها إنجاز مهام معقدة وتبسيط مهام البشر، ولكنها في الوقت ذاته تثير القلق حول الأمان الرقمي ومستقبل التوظيف.

صدرت أحدث هذه التحذيرات، منتصف هذا الأسبوع، عن مجموعة من الموظفين الحاليين والسابقين في أبرز الشركات المطوّرة لتقنيات الذكاء الاصطناعي، بما في ذلك المدعومة من “Google” و”Microsoft”.

مخاطر قد تؤدي لانقراض البشرية

قالت رسالة مفتوحة لمجموعة مكونة من 11 موظفًا حاليًا وسابقًا في “OpenAI” التي تدعمها “Microsoft” وموظف حالي وآخر سابق في “Google DeepMind”، إن الدوافع المالية لشركات الذكاء الاصطناعي تعيق الرقابة الفعالة على أعمالها.

وأضافت الرسالة: “لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا الوضع”.

وتحذّر الرسالة من المخاطر الناجمة عن الذكاء الاصطناعي غير المنظم، بدءًا من انتشار المعلومات المضللة إلى تعميق أزمة عدم المساواة، مما قد يؤدي إلى “انقراض البشرية”.

وأشارت الرسالة إلى المثلة الكثيرة المنتشرة لصور أنتجتها أدوات الذكاء الاصطناعي التي تشغلها شركات “OpenAI” و”Microsoft” تحتوي على معلومات مضللة متعلقة بالتصويت في الانتخابات، على الرغم من السياسات الصارمة ضد هذا المحتوى.

وجاء في الرسالة أن شركات الذكاء الاصطناعي لديها “التزامات ضعيفة” فيما يتعلق بمشاركة المعلومات مع الحكومات حول قدرات أنظمتها والقيود المفروضة عليها، مضيفة أنه لا يمكن الاعتماد على هذه الشركات لمشاركة تلك المعلومات طوعًا.

الذكاء-الاصطناعي

وتعد هذه الرسالة المفتوحة هي الأحدث التي تثير مخاوف تتعلق بالسلامة حول تقنية الذكاء الاصطناعي التوليدية، والتي يمكنها إنتاج نصوص وصور وصوت تشبه الإنسان بسرعة وبتكلفة زهيدة.

وحثت المجموعة شركات الذكاء الاصطناعي على تسهيل عملية للموظفين الحاليين والسابقين لإثارة المخاوف المتعلقة بالمخاطر وعدم فرض اتفاقيات السرية التي تحظر النقد.

وبشكل منفصل، قالت شركة “OpenAI” التي يقودها سام ألتمان، يوم الخميس، إنها عطلت 5 عمليات تأثير سرية سعت إلى استخدام نماذج الذكاء الاصطناعي الخاصة بها في “أنشطة خادعة” عبر الإنترنت.

وتقول بلدان ومنظمات دولية إنها تجري مناقشات في الوقت الحالي لسن تشريعات تحد من خطورة الذكاء الاصطناعي، وتضمن استخدامه فيما يحقق المنافع للمستخدمين فقط.

المصادر:

وكالة Reuters