أبل تكشف عن مزيد من التفاصيل حول تقنيات المسح الضوئي للصور الخاصة بسلامة الأطفال
أبل تكشف عن مزيد من التفاصيل حول تقنيات المسح الضوئي للصور الخاصة بسلامة الأطفال

كانت أبل هدفًا للنقد منذ أن كشفت أنها ستقدم بعض ميزات سلامة الأطفال في نظامها الإيكولوجي مما سيسمح بمسح مواد الاعتداء الجنسي على الأطفال (CSAM).

واعترفت الشركة داخليًا بأن بعض الأشخاص قلقون بشأن الميزات الجديدة، لكنها قالت إن هذا يرجع إلى سوء الفهم الذي ستعالجه في الوقت المناسب. اليوم، أوفت بوعدها.

في مستند الأسئلة الشائعة المكون من ست صفحات والذي يمكنك مشاهدته هنا، أكدت أبل أن تقنية مسح الصور الخاصة بها تنقسم إلى حالتين مختلفتين للاستخدام.

الأول يتعلق باكتشاف الصور الجنسية الصريحة المرسلة أو المستلمة من قبل الأطفال الذين تبلغ أعمارهم 12 عامًا أو أقل عبر تطبيق الرسائل.

تستخدم هذه الإمكانية التعلم الآلي على الجهاز لتعتيم الصور التي بها مشكلات تلقائيًا، وإبلاغ الأطفال بأنه لا يتعين عليهم عرض المحتوى، وتزويدهم بالإرشادات، وإبلاغ والديهم إذا كانوا لا يزالون يختارون عرض مثل هذه الصور.

في نفس السيناريو، سيتم تقديم إرشادات مماثلة للأطفال الذين تتراوح أعمارهم بين 13 و17 عامًا ولكن لن يتم إبلاغ والديهم. لكي يعمل هذا التدفق، يجب إعداد حسابات الأطفال في إعدادات العائلة على iCloud ، ويجب تفعيل الميزة، ويجب تمكين إشعارات الوالدين للأطفال.

يتمثل الشق الثاني لنهج سلامة الأطفال في أبل في إبقاء CSAM بعيدًا عن iCloud Photos. في هذه الحالة، ستتم مقارنة تحليلات صور iCloud مع صور CSAM المعروفة، وسيتم إخطار الشركة في حالة اكتشاف تطابق. لا تعمل هذه الميزة مع الصور الخاصة على الجهاز أو إذا تم تعطيل صور iCloud.

أكدت الشركة أنها لا تقوم بتنزيل أي صور CSAM على جهازك للمقارنة بها. بدلاً من ذلك، يحسب تجزئة صورك ويقارنها بمحتوى CSAM المعروف لتحديد النتيجة.

عن الكاتب

Ayman abdallah

ناشط تقني وكاتب مقالات في مجالات متعددة

اترك تعليقا