تقنية

نمو هائل للاحتيال المدعوم بالذكاء الاصطناعي

أصبح التزييف العميق لمقاطع الفيديو والصور والتسجيلات الصوتية منتشر على نطاق واسع على منصات الإنترنت المختلفة، بمساعدة التقدم التكنولوجي وتقنيات الذكاء الاصطناعي، مثل Midjourney، أو Gemini من Google، أو ChatGPT من OpenAI.

احتيال مدعوم بالذكاء الاصطناعي

ومن خلال الضبط الدقيق المناسب والسريع، يمكن لأي شخص إنشاء صور تبدو حقيقية أو جعل أصوات الشخصيات السياسية أو الاقتصادية البارزة والفنانين يقولون أي شيء يريدونه. في حين أن إنشاء التزييف العميق لا يعد جريمة جنائية في حد ذاته، إلا أن العديد من الحكومات تتجه نحو تنظيم أقوى عند استخدام الذكاء الاصطناعي لمنع إلحاق الضرر بالأطراف المعنية.

ويمكن استخدام هذه التكنولوجيا أيضًا لارتكاب عمليات احتيال في الهوية عن طريق تصنيع معرفات مزورة أو انتحال هوية آخرين عبر الهاتف. كما يوضح الرسم البياني الخاص بنا استنادًا إلى أحدث تقرير سنوي لمزود التحقق من الهوية Sumsub، فقد ارتفعت حالات الاحتيال في الهوية المتعلقة بالتزييف العميق بين عامي 2022 و2023 في العديد من البلدان حول العالم.

عدد محاولات الاحتيال

على سبيل المثال، ارتفع عدد محاولات الاحتيال في الفلبين بنسبة 4500 بالمائة على أساس سنوي، تليها دول مثل فيتنام والولايات المتحدة وبلجيكا. ومع احتمال زيادة قدرات ما يسمى بالذكاء الاصطناعي بشكل أكبر، كما يتضح من منتجات مثل مولد الفيديو القائم على الذكاء الاصطناعي Sora، فإن محاولات الاحتيال في التزييف العميق يمكن أن تمتد أيضًا إلى مجالات أخرى، حسب statista.

يقول بافيل جولدمان كالايدين، رئيس قسم الذكاء الاصطناعي والتعلم الآلي في شركة سمساب: “لقد رأينا أن التزييف العميق أصبح أكثر إقناعًا في السنوات الأخيرة، وسيستمر هذا وسيتفرع إلى أنواع جديدة من الاحتيال، كما رأينا مع التزييف الصوتي العميق”.

أضاف: “يحتاج كل من المستهلكين والشركات إلى توخي الحذر الشديد تجاه الاحتيال الاصطناعي والتطلع إلى حلول متعددة الطبقات لمكافحة الاحتيال، وليس فقط اكتشاف التزييف العميق.”

وتتم مشاركة هذه التقييمات من قبل العديد من خبراء الأمن السيبراني. على سبيل المثال، أظهرت دراسة استقصائية أجريت بين 199 من قادة الأمن السيبراني الذين حضروا الاجتماع السنوي للمنتدى الاقتصادي العالمي حول الأمن السيبراني في عام 2023، أن 46 بالمائة من المشاركين أبدوا قلقًا أكبر بشأن “تقدم القدرات العدائية – التصيد الاحتيالي، وتطوير البرامج الضارة، والتزييف العميق” فيما يتعلق بمخاطر الذكاء الاصطناعي.

الاحتيال المدعوم بالذكاء الاصطناعي

اقرأ أيضاً:

ارتفاع كبير.. ما أبرز استخدامات الذكاء الاصطناعي في 2024؟

الجانب المظلم.. نزاهة الانتخابات مُهدّدة في عصر الذكاء الاصطناعي

قوقل توقف أداة توليد الصور بالذكاء الاصطناعي بسبب “أخطاء تاريخية”