أعلنت شركة مايكروسوفت عن أداة ذكاء اصطناعي يمكنها إنشاء صور رمزية وأصوات جديدة أو تكرار المظهر الحالي للمستخدم وكلامه، الأمر الذي يثير مخاوف من أنه قد يؤدي إلى زيادة إنشاء صور مزيفة عميقة، من صنع الذكاء الاصطناعي، أو فيديوهات لأحداث لم تحدث.
وجاء إعلان مايكروسوفت عن أحدث مساهماتها في سباق الذكاء الاصطناعي في مؤتمر المطورين الخاص بها Microsoft Ignite 2023، الذي عُقد الأسبوع الماضي.
أداة ذكاء اصطناعي من “مايكروسوفت”
وتسمح خدمات Azure AI Speech، التي أعلنت عنها مايكروسوفت، للمطورين بإنشاء تطبيقات الذكاء الاصطناعي باستخدام واجهات برمجة التطبيقات والنماذج الجاهزة والمُصممة مسبقًا والقابلة للتخصيص.
تتضمن خدمات Azure AI Speech خدمة الرؤية وخدمة الكلام وخدمة المترجم، علماً بأن الشركة أعلنت عن العديد من الميزات الجديدة في Azure AI بما في ذلك الصورة الرمزية لتحويل النص إلى كلام والصوت العصبي الشخصي ووضع الترجمة الآلية المحسن الجديد، وغيرها.
ويسمح Azure AI Speech للمستخدمين بإدخال نص يمكن بعد ذلك “قراءته” بصوت عالٍ من خلال صورة رمزية واقعية تم إنشاؤها باستخدام الذكاء الاصطناعي، فيما يمكن للمستخدمين إما اختيار صورة رمزية لـ Microsoft تم تحميلها مسبقًا أو تحميل لقطات لشخص يريدون تكرار صوته وشكله.
مكافحة انتشار التزييف العميق
وقالت مايكروسوفت في منشور على مدونتها، الأربعاء، إن الأداة يمكن استخدامها لبناء “وكلاء محادثة، ومساعدين افتراضيين، وروبوتات دردشة”، مضيفةً “يمكن للعملاء اختيار إما صوتًا عصبيًا تم إنشاؤه مسبقًا أو مخصصًا للصورة الرمزية الخاصة بهم. إذا تم استخدام صوت الشخص نفسه وشكله لكل من الصوت العصبي المخصص والصورة الرمزية المخصصة لتحويل النص إلى كلام، فإن الصورة الرمزية ستشبه هذا الشخص إلى حد كبير”.
وذكرت الشركة أن برنامج تحويل النص إلى كلام الجديد سيتم إصداره مع مجموعة متنوعة من القيود والضمانات لمنع سوء الاستخدام، مضيفةً: “كجزء من التزام مايكروسوفت بالذكاء الاصطناعي المسؤول، تم تصميم الصورة الرمزية لتحويل النص إلى كلام بهدف حماية حقوق الأفراد والمجتمع، وتعزيز التفاعل الشفاف بين الإنسان والحاسوب، ومكافحة انتشار التزييف العميق الضار والمحتوى المضلل”.
ويمكن للمستخدمين تحميل تسجيل الفيديو الخاص بهم لما يسمى “موهبة الصورة الرمزية”، والتي تستخدمها الميزة لتدريب مقطع فيديو اصطناعي للصورة الرمزية المخصصة التي تتحدث”.
انتقادات وضمانات
وسرعان ما أثار هذا الإعلان انتقادات مفادها أن مايكروسوفت أطلقت “منشئ التزييف العميق”، والذي من شأنه أن يسمح بسهولة أكبر باستنساخ صورة الشخص وجعله يقول ويفعل أشياء لم يقلها أو يفعلها هذا الشخص، حسب صحيفة “الجارديان” البريطانية.
فيما قال رئيس شركة مايكروسوفت في شهر مايو الماضي إن تقنية التزييف العميق هي “مصدر قلقه الأكبر” عندما يتعلق الأمر بظهور الذكاء الاصطناعي.
وردت الشركة، في بيان، على الانتقادات قائلة إن الصور الرمزية المخصصة أصبحت الآن أداة “وصول محدود” يتعين على العملاء التقدم للحصول عليها والموافقة عليها من قبل Microsoft، مضيفةً أنه سيُطلب من المستخدمين أيضًا الكشف عن وقت استخدام الذكاء الاصطناعي لإنشاء صوت اصطناعي أو صورة رمزية.
من جانبها، قالت سارة بيرد من قسم هندسة الذكاء الاصطناعي المسؤول في مايكروسوفت في بيان: “مع وجود هذه الضمانات، نساعد في الحد من المخاطر المحتملة وتمكين العملاء من غرس قدرات الصوت والكلام المتقدمة في تطبيقات الذكاء الاصطناعي الخاصة بهم بطريقة شفافة وآمنة”.
اقرأ أيضاً:
أداة ذكاء اصطناعي جديدة تتنبأ بحالة الطقس بدقة وسرعة
شركة تقنية صينية عملاقة تعلن إطلاق أداة ذكاء اصطناعي تتفوق على “ChatGPT”
شريحة الذكاء الاصطناعي من الجيل التالي تحاكي الدماغ البشري لتوفير الطاقة