اخر الاخبار

تنشر Apple الأسئلة الشائعة لمعالجة مخاوف اكتشاف CSAM ومسح الرسائل

 

تنشر Apple الأسئلة الشائعة لمعالجة مخاوف اكتشاف CSAM ومسح الرسائل


قامت شركة Apple بنشر الأسئلة الشائعة بعنوان "الحماية الموسعة للأطفال" ، لمعالجة بعض الأسئلة والمخاوف التي أثيرت بخصوص إجراءات سلامة الأطفال الجديدة التي تم الإعلان عنها الأسبوع الماضي.


ترافق الأسئلة الشائعة الجديدة سلسلة من التفسيرات التقنية حول التكنولوجيا التي تم الإعلان عنها مؤخرًا والتي يمكنها اكتشاف مواد الاعتداء الجنسي على الأطفال التي تم تحميلها على iCloud Photos ، بالإضافة إلى ميزة جديدة يمكنها استخدام التعلم الآلي لتحديد ما إذا كان الطفل يرسل أو يتلقى صورًا جنسية صريحة.


 في الأسئلة الشائعة الجديدة ، يبدو أن Apple مهتمة بشكل خاص بتحديد الفرق بين هاتين الميزتين الجديدتين ، تقول آبل:


"تم تصميم أمان الاتصال في الرسائل لمنح الآباء والأطفال أدوات إضافية للمساعدة في حماية أطفالهم من إرسال واستقبال صور جنسية صريحة في تطبيق الرسائل. إنه يعمل فقط على الصور المرسلة أو المستلمة في تطبيق الرسائل لحسابات الأطفال التي تم إعدادها في Family Sharing. يقوم بتحليل الصور الموجودة على الجهاز ، وبالتالي لا يغير ضمانات الخصوصية للرسائل. عندما يرسل حساب طفل أو يستقبل صورًا جنسية فاضحة ، سيتم تعتيم الصورة وسيتم تحذير الطفل ، وتقديمه بمصادر مفيدة ، وطمأنته بأنه لا بأس إذا لم يرغب في عرض الصورة أو إرسالها. كإجراء احترازي إضافي ، يمكن أيضًا إخبار الأطفال الصغار أنه للتأكد من سلامتهم ، سيتلقى والديهم رسالة إذا شاهدوها. الميزة الثانية ، وهي اكتشاف CSAM في iCloud Photos ، مصممة لإبقاء CSAM خارج iCloud Photos دون تقديم معلومات إلى Apple حول أي صور غير تلك التي تتطابق مع صور CSAM المعروفة. يعد امتلاك صور CSAM أمرًا غير قانوني في معظم البلدان ، بما في ذلك الولايات المتحدة. تؤثر هذه الميزة فقط على المستخدمين الذين اختاروا استخدام صور iCloud لتخزين صورهم. لا يؤثر ذلك على المستخدمين الذين لم يختاروا استخدام صور iCloud. ليس هناك أي تأثير على أي بيانات أخرى على الجهاز. لا تنطبق هذه الميزة على الرسائل".


تغطي الأسئلة أيضًا المخاوف بشأن الرسائل التي تتم مشاركتها مع سلطات إنفاذ القانون ، إذا كانت Apple تقوم بكسر التشفير التام ، وصور CSAM ، ومسح الصور ضوئيًا ، والمزيد.


تقول آبل:


"سوف ترفض شركة آبل أي مطالب من هذا القبيل. تم تصميم قدرة اكتشاف CSAM من Apple فقط لاكتشاف صور CSAM المعروفة المخزنة في iCloud Photos والتي تم تحديدها من قبل الخبراء في NCMEC ومجموعات سلامة الأطفال الأخرى. لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات. سوف نستمر في رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه. علاوة على ذلك ، تجري Apple مراجعة بشرية قبل تقديم تقرير إلى NCMEC. في حالة قيام النظام بوضع علامة على الصور التي لا تتطابق مع صور CSAM المعروفة ، فلن يتم تعطيل الحساب ولن يتم تقديم أي تقرير إلى NCMEC".


يأتي هذا التوضيح بعد أن أثارت خطط Apple مخاوف في المجتمع الأمني ​​وأثارت بعض الاحتجاج العام من الشخصيات العامة. يمكنك معرفة المزيد على صفحة آبل من هنا.

ليست هناك تعليقات:

إرسال تعليق