أخر الاخبار

آبل تؤجِّل طرح نظام مكافحة مواد الاعتداء الجنسي على الأطفال

آبل تؤجِّل طرح نظام مكافحة مواد الاعتداء الجنسي على الأطفال
فيما سبق، أعلنت آبل عن تطوير نظام يبحث في عن مواد الاعتداء الجنسي على الأطفال (CSAM) وإبلاغ السلطات إن عثر عليها عند أحد المستخدمين وإعطاء معلوماته بعد أن تتم مراجعتها من قبل البشر للتأكد من صحّة الاكتشاف.

ولكن واجهت آبل رد فعل عنيف، فكما نقلنا سابقاً في مقال "لماذا الخوف من برنامج آبل لمكافحة الاعتداء الجنسي على الأطفال؟"، احتجّت المنظمات والأفراد على هذه الخطوة وأعلنت عن رفضها لهذه الأداة التي ستهدد الخصوصية. الآن استجابت آبل.

آبل تؤخر طرح نظام مكافحة مواد الاعتداء الجنسي على الأطفال

كانت شركة آبل مستعدة في البداية لنشر نظامها في وقت لاحق من هذا العام. ولكن الآن بات موعد طرح النظام غير معلوماً. ولم تتحدث آبل أيضاً عن كيف تخطط لتحسينه أو كيف ستتعامل مع الميزة لتقديم توازن صحي بين الخصوصية والأمان.

وقالت الشركة في بيان:

"لقد أعلنا سابقاً عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم وللمساعدة في الحد من انتشار مواد الاعتداء الجنسي على الأطفال. استناداً إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إصدار ميزات سلامة الأطفال بالغة الأهمية هذه."

نظام آبل هذا يبحث عن تلك المواد على الجهاز ولا يمسح الصور في السحابة ضوئياً. يحاول الكشف عن تجزئات صور محتوى CSAM المعروفة التي يوفرها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ومنظمات سلامة الأطفال الأخرى. تحدث عملية المطابقة على الجهاز مباشرة قبل تحميل صورة إلى صور iCloud، وفقاً لما ورد حديثاً.




وضع القراءة :
حجم الخط
+
16
-
تباعد السطور
+
2
-