سلّطت أحدث نسخة من النشرة الأسبوعية للذكاء الاصطناعي من “سدايا”، الضوء على أداة جديدة تساعد الفنانين على حماية حقوقهم في الأعمال التي يقومون بإنتاجها.
“تسميم الصور” يحمي الحقوق الفنية
طور باحثون من جامعة شيكاغو في الولايات المتحدة، أداة أطلق عليها اسم “Nightshade”، تتيح للفنانين إضافة تغييرات غير مرئية إلى أعمالهم الفنية قبل رفعها إلى شبكة الإنترنت.
ويمكّن هذا الإجراء حماية الأعمال الفنية من الشركات التي قد تنتهك حقوق الملكية والنشر لهذه الأعمال وتستخدمها لتدريب نماذج الذكاء الاصطناعي دون الحصول على موافقة.
وتستخدم الأداة طريقة تسميم البيانات، وهي آلية للتلاعب ببيانات التدريب والإضرار بنماذج الذكاء الاصطناعي المولدة للصور.
واختبر الباحثون الأداة على أحدث نماذج “Stable Diffusion”، وأظهرت النتائج قدرة الأداة على إضعاف أداء النموذج والتلاعب بمخرجاته.
يأتي تطوير هذه الأداة في حين تواجه شركات الذكاء الاصطناعي مثل “OpenAI”، و”Google”، عددًا كبيرًا من الدعاوى القضائية من فنانين يزعمون أن المواد المحمية بحقوق الطبع والنشر والمعلومات الشخصية الخاصة بهم قد تم نسخها دون موافقة أو تعويض.
يقول بن تشاو، الأستاذ في جامعة شيكاغو، الذي قاد الفريق الذي ابتكر “Nightshade”، إنه يأمل أن تساعد الأداة الجديدة في إعادة توازن القوى من شركات الذكاء الاصطناعي نحو الفنانين، من خلال خلق رادع قوي ضد عدم احترام حقوق النشر والملكية الفكرية للفنانين.
تستغل “Nightshade” ثغرة أمنية في نماذج الذكاء الاصطناعي التوليدية، والتي تنشأ من حقيقة أنها مدربة على كميات هائلة من البيانات.
يمكن للفنانين الذين يرغبون في تحميل أعمالهم عبر الإنترنت ولكنهم لا يريدون أن تلتقط شركات الذكاء الاصطناعي صورهم أن يقوموا بتحميلها على الأداة واختيار إخفائها بأسلوب فني مختلف عن أسلوبهم.
بمجرد أن يبحث مطورو الذكاء الاصطناعي عن الإنترنت للحصول على المزيد من البيانات لتعديل نموذج ذكاء اصطناعي موجود أو بناء نموذج جديد، فإن هذه العينات المسمومة تشق طريقها إلى مجموعة بيانات النموذج وتتسبب في عطله.
اقرأ أيضاً :
Open RNA.. أول مركز لتطوير شبكات الوصول اللاسلكي المفتوحة في المملكة
معرض مستقبل الإعلام FOMEX 2024.. أبرز التفاصيل
بعد 4 سنوات من ظهور “كورونا”.. جهود متواصلة لمنع الوباء التالي