شرح اكتشاف Apple CSAM

أعلنت شركة Apple مؤخرًا عن ميزتين ستأتيان كجزء من تحديث iOS المستقبلي. وقد قوبلت السمتان بالكثير من الانتقادات من دعاة الخصوصية. لا تزال Apple ثابتة في اقتناعها بأن نهجها لا ينتهك خصوصية المستخدمين.

شرح اكتشاف Apple CSAM

دعونا نناقش ماهية مادة الاعتداء الجنسي على الأطفال (CSAM) وكيف تتعامل Apple معها ، مما يتسبب في رد فعل عنيف من خبراء الخصوصية في جميع أنحاء العالم.

ما هو اكتشاف CSAM وكيف يعمل؟

مواد الاعتداء الجنسي على الأطفال (CSAM) هي أي شيء يحتوي على مواد جنسية متعلقة بالأطفال دون السن القانونية. إن اكتشاف CSAM هو تقنية تعثر على مثل هذا المحتوى من خلال مطابقته مع قاعدة بيانات CSAM معروفة. 

كشفت Apple عن التكنولوجيا كجزء من تحديث قادم للبرنامج. إنه يعمل من خلال مقارنة الصور التي يقوم المستخدمون بتحميلها على iCloud بقاعدة بيانات CSAM معروفة يحتفظ بها المركز الوطني للأطفال المفقودين المستغلين (NCMEC) ومنظمات سلامة الأطفال الأخرى. لكن مسح الصور سيكون خرقًا كبيرًا للخصوصية ، لذا بدلاً من ذلك ، تقوم تقنية Apple المسماة NeuralHash بمطابقة تجزئة الصور مع التجزئة التي يوفرها NCMEC. 

سيتم تخزين قاعدة بيانات تجزئات CSAM المعروفة على كل جهاز. عملية المطابقة مشفرة بالكامل بطبيعتها. تقول Apple إن تقنية التشفير الخاصة بها تنشئ قسيمة آمنة عند العثور على تطابق وتخزين النتيجة. يتم تحميل الصورة والقسيمة إلى iCloud إذا قام المستخدم بتمكين مشاركة صور iCloud. 

ماذا يحدث بعد اكتشاف CSAM؟

أنشأت Apple آلية أخرى تسمح للقسيمة بالبقاء آمنة ضد أي تدخل ، بما في ذلك Apple. فكر في الأمر على أنه قفل يفتح فقط بمجرد وصوله إلى رقم معين.

لقطة شاشة-1

(اعتمادات الصورة: Apple)

لا تستطيع Apple رؤية الصورة المخزنة في قسيمة التشفير. ولكن بمجرد تجاوز الحد الأدنى ، ستتخذ Apple تدخلاً يدويًا. هذا الجزء مهم للتأكد من أن النظام لم ينتج خطأ. سيتحقق شخص من Apple يدويًا من الصورة ويؤكد ما إذا كانت بالفعل CSAM. إذا تم العثور على الصورة على أنها CSAM ، فسيتم حذف حساب المستخدم ، وسيتم إخطار وكالات إنفاذ القانون بشأن الشخص. 

تنص Apple على أن العتبة المحددة توفر احتمال 1 في تريليون لإبلاغ حساب بشكل غير صحيح. 

مخاوف الخصوصية حول اكتشاف CSAM من Apple

ليس هناك من ينكر أن CSAM يمثل مشكلة كبيرة. عندما تم إنشاء التشفير من طرف إلى طرف لتعزيز الخصوصية ، فقد وفّر أيضًا أمان المفترسين من تطبيق القانون. يمكنهم مشاركة هذه المواد والتهرب من الكشف عن إنفاذ القانون. 

تتمثل إحدى طرق منعه في مسح جميع الصور التي يتم تحميلها إلى الخدمات السحابية ، مثل Dropbox و OneDrive و Google Drive و iCloud. ومع ذلك ، قادت شركة Apple نهجًا يركز على الخصوصية لا يتضمن مسح الصور ضوئيًا بل تجزئة بدلاً من ذلك.  

التجزئة هي قيمة تشفير لمدخل تم تمريره عبر خوارزمية. ستكون النتيجة قيمة تجزئة فريدة للإدخال ، مثل صورة. لذلك بدلاً من مقارنة الصور نفسها ، يمكن مقارنة قيم التجزئة الخاصة بها لتحديد ما إذا كانت هي نفس الصور أم لا. 

كل هذا يبدو مثاليًا ، أليس كذلك؟ ليس تماما. يجادل خبراء الخصوصية بأنه لا يوجد شيء يمنع Apple من استبدال قاعدة بيانات CSAM بأخرى. يمكن لقاعدة البيانات الجديدة تحديد النشطاء الحقوقيين وأنصار الحرية وأي شيء لا يدعم رواية الحكومة. باختصار ، يمكن تسليحها للمراقبة. 

منذ إعلانها ، تعرضت Apple لانتقادات من خبراء الخصوصية في جميع أنحاء العالم. توصف التكنولوجيا بأنها باب خلفي ستستخدمه الحكومات الاستبدادية في النهاية. 

بينما تلتزم Apple بأنها لن تتنازل عن أي مطالب من الحكومات ، فإن وجود مثل هذه التكنولوجيا بحد ذاته يثير قلق الخبراء. منظمات الخصوصية مثل مؤسسة الحدود الإلكترونية (EFF) - بما في ذلك المخبر السابق في وكالة المخابرات المركزية إدوارد سنودن - كانوا صريحين بشأن هذه الخطوة. وقد أصدرت أكثر من 90 منظمة مجتمع مدني ملف رسالة مفتوحة لشركة Apple للتخلي عن إصدار تقنية اكتشاف CSAM الخاصة بها. الإعلان أيضا يقال أثار انتقادات داخل شركة آبل. 

ومن المثير للاهتمام ، أن نفس الشركة قاتلت ذات مرة مكتب التحقيقات الفيدرالي والمحكمة الفيدرالية ضد إنشاء نظام تشغيل مخصص في قضية سان بيرنادينو 2015. استشهدت Apple بأسباب سوء الاستخدام المحتمل لإصدار iOS المخصص الذي يمكن أن يتجاوز أمان iPhone ، حتى أنه وصفته بأنه "برنامج مكافئ للسرطان". 

كانت شركة Apple متخوفة جدًا من إنشاء شيء يمكن أن يسيء استخدامه. ومع ذلك ، بعد مرور سنوات ، يبدو أن شركة آبل تناقض موقفها الخاص بشأن الخصوصية. بينما تستمر Apple في القول إن الكثير من الشك يرجع إلى الارتباك المحيط بكيفية عملها ، رفض خبراء الخصوصية أي تفسير أصدرته Apple ، بما في ذلك وثيقة نموذج التهديد يوضح كيفية تصميم النظام للتعامل مع التداخل والأخطاء. 

كيفية إيقاف تشغيل اكتشاف CSAM

نظام الكشف عن CSAM هو جزء من الجهاز وسحابة جزئية. يعمل النظام بشكل كامل فقط عندما تكون لديك صور iCloud قيد التشغيل. سيؤدي إيقاف تشغيله إلى تعطيل النصف الآخر من النظام ، وهو أمر ضروري حتى تصل النتائج المكتشفة إلى Apple. 

لا توجد طريقة لإيقاف تشغيل المسح على الجهاز. وقد جعلت شركة آبل النظام من هذا القبيل

لقطة شاشة-2

أنه لا يُعلم المستخدم إذا تم اكتشاف CSAM على الجهاز. 

ما هي سلامة الاتصالات في الرسائل؟

هناك جزأان لـ CSAM من Apple: iCloud و Messages. 

تعمل سلامة الاتصالات للرسائل بشكل مختلف عن نظيرتها في iCloud. يستخدم التعلم الآلي على الجهاز لتحديد ما إذا كانت الرسالة الواردة أو الصادرة تحتوي على صور جنسية صريحة. سيتمكن الآباء من تمكين الميزة للأطفال على حساب iCloud Family الخاص بهم. 

سيتم تعتيم الصورة إذا كانت ذات طبيعة جنسية صريحة وتم تمييزها على أنها حساسة. إذا استمر المستخدم في عرض الصورة على أي حال ، فسيتلقى الوالد إشعارًا بشأنها. يعمل هذا أيضًا عندما يحاول الطفل إرسال صورة تم تمييزها جنسيًا صريحًا. 

وفي الختام

في تطور حديث ، أعلنت Apple عن خططها لتأجيل طرح CSAM حتى وقت لاحق.

نحن ، بصفتنا مدافعين عن الخصوصية ، نعتقد اعتقادًا راسخًا أنه في حالة وجود أدوات ، يمكن التلاعب بها لأغراض سيئة. هناك المليارات من أجهزة iPhone و iPad في العالم الآن ؛ إن تطبيق تقنية يمكن تغييرها قسراً لتلائم غرضاً من قبل الحكومات القمعية هو احتمال حقيقي.

تحكم في خصوصيتك اليوم! قم بإلغاء حظر المواقع والوصول إلى منصات البث وتجاوز مراقبة مزود خدمة الإنترنت.

تواصل FastestVPN
اشترك في النشرة الإخبارية
تلقي المنشورات الشائعة لهذا الأسبوع وآخر الإعلانات من FastestVPN عبر النشرة الإخبارية عبر البريد الإلكتروني.
رمز
0 0 الأصوات
تقييم المادة

يمكنك مثل أيضا

اشتراك
إخطار
ضيف
0 التعليقات
التقيمات المضمنة
عرض جميع التعليقات