تقنية

تتراجع Apple عن خطط أدوات سلامة الأطفال الجديدة بعد رد الفعل العنيف بشأن الخصوصية

تصدرت شركة Apple عناوين الصحف – ليس بشيء إيجابي هذه المرة – الشهر الماضي عندما أعلنت عن اختبار لأداة جديدة، تهدف إلى مكافحة استغلال الأطفال، سرعان ما شجب النقاد الآثار المحتملة للخصوصية للميزة، والآن تتوقف Apple لفترة طويلة قبل المضي قدمًا في خططها.

التوقف عن اختبار الأداة.. لماذا؟

قالت الشركة يوم الجمعة إنها ستتوقف مؤقتًا عن اختبار الأداة من أجل جمع المزيد من التعليقات وإجراء التحسينات.
تركز الخطة على نظام جديد من شأنه ، إذا تم إطلاقه في النهاية ، فحص أجهزة iOS وصور iCloud بحثًا عن صور إساءة معاملة الأطفال، يتضمن ميزة الاشتراك الجديدة التي من شأنها تحذير القاصرين وأولياء أمورهم من مرفقات الصور الواردة أو المرسلة جنسيًا في iMessage وطمسها.
إعلان Apple الشهر الماضي أنها ستبدأ في اختبار الأداة، التي تتلاءم مع التركيز المتزايد مؤخرًا على حماية الأطفال بين شركات التكنولوجيا، لكنها كانت خفيفة على تفاصيل محددة وقوبلت بسرعة بتغريدات غاضبة وعناوين انتقادية ودعوات لمزيد من المعلومات.
لذلك ، قالت شركة Apple (AAPL) يوم الجمعة إنها ستضع قيودًا على تنفيذ الميزات.
وقالت الشركة: “أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين، الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم، والحد من انتشار مواد الاعتداء الجنسي على الأطفال”.

“استنادًا إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات، وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه.”

هل هذا يهدد الخصوصية؟

في سلسلة من المكالمات الصحفية التي تهدف إلى شرح الأداة المخطط لها الشهر الماضي، شددت Apple على أن خصوصية المستهلكين ستكون محمية لأن الأداة ستحول الصور على أجهزة iPhone و iPad إلى تجزئة غير قابلة للقراءة أو أرقام معقدة مخزنة على أجهزة المستخدم، ستتم مطابقة هذه الأرقام مع قاعدة بيانات للتجزئة التي يوفرها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) بمجرد تحميل الصور إلى خدمة تخزين iCloud من Apple. (قالت Apple لاحقًا إن منظمات أخرى ستشارك بالإضافة إلى NCMEC.)

فقط بعد تطابق عدد معين من التجزئات مع صور NCMEC، سيتم تنبيه فريق مراجعة Apple حتى يتمكن من فك تشفير المعلومات، وتعطيل حساب المستخدم وتنبيه NCMEC، والتي يمكن أن تبلغ سلطات إنفاذ القانون بوجود صور مسيئة محتملة.
أشاد العديد من خبراء سلامة الأطفال وأمنهم بالقصد من الخطة، معترفين بالمسؤوليات والالتزامات الأخلاقية التي تتحملها الشركة بشأن المنتجات والخدمات التي تنشئها.

لكنهم قالوا أيضًا إن الجهود تمثل مخاوف محتملة تتعلق بالخصوصية.
“عندما يسمع الناس أن شركة Apple” تبحث “عن مواد تتعلق بالاعتداء الجنسي على الأطفال (CSAM) على هواتف المستخدم النهائي، فإنهم يقفزون فورًا إلى أفكار Big Brother و 1984″، “Ryan O’Leary، مدير أبحاث الخصوصية والتكنولوجيا القانونية في السوق شركة الأبحاث IDC، أخبرت CNN Business الشهر الماضي. “هذه قضية دقيقة للغاية ويمكن أن تبدو في ظاهرها مخيفة جدًا أو تطفلية.”
أشاد منتقدو الخطة بقرار شركة آبل بوقف الاختبار مؤقتًا.

القتال من أجل المستقبل.. ماذا ترى؟

ووصفت مجموعة الحقوق الرقمية  الأداة بأنها تهديد لـ “الخصوصية والأمن والديمقراطية والحرية”، ودعت شركة Apple إلى وضعها على الرف بشكل دائم.
وقال إيفان جرير، مدير Fight for the Future في بيان: “تعد خطة Apple لإجراء مسح ضوئي على الجهاز للصور والرسائل أحد أخطر المقترحات المقدمة من أي شركة تكنولوجيا في التاريخ الحديث”.
“من الناحية التكنولوجية، هذا يعادل تثبيت برامج ضارة على ملايين أجهزة الأشخاص.. برامج ضارة يمكن إساءة استخدامها بسهولة لإحداث أضرار جسيمة.”

المصادر :

CNN /