قواعد سلامة الأطفال حديثًا من Apple: إليك ما يجب معرفته


أأحدثت التغييرات المعلنة لـ pple في كيفية تعاملها مع خصوصية الأطفال والمواد غير القانونية على حد سواء ، جدلًا حول التشفير والحق في الخصوصية. لكن من المحتمل أنك لن تلاحظ أبدًا أي تغيير في الرسائل النصية اليومية والتقاط الصور.

أعلنت شركة آبل يوم الجمعة عن تغييرات جديدة في كيفية تعاملها مع صور معينة في مكتبة صور iCloud الخاصة بها ، بالإضافة إلى بعض الصور المرسلة عبر تطبيق الرسائل. من المقرر أن يصل التنفيذ في وقت لاحق من هذا العام مع تسليم iOS 15. في حين أن التغييرات ، المصممة لحماية الأطفال من المواد المسيئة والجنسية الصريحة ، هي جزء من معركة أكبر ضد محتوى الاعتداء على الأطفال ، فقد ترك تنفيذ الشركة للكثيرين ادعاء تتنازل الشركة عن معاييرها العالية من التشفير. في مواجهة الأسئلة ، أمضت Apple الأسبوع في شرح أحدث التغييرات التي طرأت على كيفية مسح صور iCloud بالإضافة إلى الصور المرسلة إلى القصر في الرسائل على iOS.

ماذا أعلنت شركة آبل؟

ستبدأ أداة الكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) الجديدة من Apple في مسح الصور التي يقوم المستخدمون بتحميلها إلى مكتبة صور iCloud الخاصة بهم بحثًا عن مواد الاعتداء على الأطفال ، وستغلق المستخدمين في حالة اكتشاف صور متعددة. إنها تضيف أيضًا أداة مسح الصور للقصر في الرسائل ، بحيث يمكن للأطفال والآباء أن يكونوا على دراية عندما يشاهدون صورًا فاضحة.

ميزة الرسائل ، المصممة للقصر ، ستنبه الآباء عند مشاركة صور جنسية صريحة ، وتحذر القاصر من عدم عرض المحتوى ، وتنبيه الوالد إذا قرروا النظر. تقول شركة Apple إن أداة مسح الصور تم تدريبها على المواد الإباحية ، ويمكنها اكتشاف المحتوى الجنسي الصريح.

يجب على الآباء الاشتراك في ميزة أمان الاتصال في الرسائل ، وسيتم إخطارهم إذا تم فتح صورة صريحة إذا كان الطفل يبلغ من العمر 12 عامًا أو أقل. سيظل الأطفال الذين تتراوح أعمارهم بين 13 و 17 عامًا يتلقون تحذيرًا عند فتح الصورة ، ولكن لن يتلقى والديهم إشعارًا في حالة فتح الصورة.

تسعى مجموعة ميزات سلامة الأطفال الجديدة من Apple ، والتي تم إنشاؤها من خلال التعاون مع المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ، إلى حماية الأطفال من الأنشطة المسيئة والصور الجنسية. ظاهريًا ، قد يبدو الأمر كما لو أن Apple تتنازل عن هدفها المقصود المتمثل في زيادة خصوصية المستخدم بغرض مراقبة الصور ، ويتفق بعض الخبراء على ذلك. لكن الشركة ليست أول شركة تقوم بفحص النشاط الذي ينشئه المستخدم بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM).

يعتبر كل من أداة اكتشاف CSAM من Apple لـ iCloud Photos وأداة مسح الصور الصريحة الجديدة للقاصرين غازية من قبل المدافعين عن الخصوصية وخبراء الأمن السيبراني. يرى البعض أنها خطوة نحو تآكل التشفير الحقيقي للبيانات والخصوصية ، حيث يمكن استخدام الوصول إلى مكتبة صور المستخدم بأي طريقة من قبل الحكومات الراغبة في الضغط على Apple للعب على طول. وفقا لنيويورك مرات في التقرير ، سمحت Apple بالفعل لموظفي الدولة الصينية بتشغيل خوادمها ، والتي تخزن البيانات الشخصية لمستخدمي iOS الصينيين.

يبدو أن الأدوات الجديدة تتعارض أيضًا مع موقف Apple القوي بشأن الخصوصية ورفض الوصول إلى طلبات بيانات المستخدم من قبل سلطات إنفاذ القانون.

كيف سيعمل اكتشاف الصور من Apple؟

في صفحة “أمان الأطفال” الخاصة بها ، تقدم Apple تفاصيل حول تغييرات الخصوصية القادمة على iOS و iPadOS. تنص على أن الكشف عن الصور سيتم استخدامه بشكل أساسي للتعامل مع الصور غير المناسبة والمواد المسيئة. سيتم تحميل برنامج جديد لمسح الصور على نظام iOS والذي سيقوم بمسح الصور التي تم تحميلها على iCloud Photos لـ CSAM.

تقول Apple إن الأداة ستقوم بمسح الصور قبل تحميلها على iCloud Photos ومقارنتها بقاعدة بياناتها الخاصة بمعرفات صور CSAM المعروفة ببصمات أصابع فريدة (تسمى أيضًا “التجزئة”). يشيرون إلى أنه سيقارن تجزئات الصور الفريدة ، وليس الصور نفسها.

تقول Apple إنها لا يمكنها اتخاذ إجراء إلا عندما تكتشف “مجموعة” من صور CSAM المعروفة بعد تحميلها إلى مكتبة صور iCloud الخاصة بك. عندما يتم الوصول إلى “عتبة” للمجموعة ، تقول Apple إنها ستتحقق يدويًا من محتويات الصور وتبلغ عن الصور إلى NCMEC أثناء قفل المستخدم من معرف Apple الخاص به. تقول Apple إن احتمالات تصنيف المستخدم على أنه إيجابي خاطئ هي واحد من كل تريليون.

هل ستنظر آبل إلى صورك؟

تقول Apple إنها لا تنظر إلى الصور بنفسها ، لذلك لا توجد فرصة لشخص ما أن يلمح أي صور فعلية ، ما لم يتم تقديمها للمراجعة البشرية بعد استيفاء متطلبات معينة. لا يمكن لـ Apple عرض كل من قاعدة بيانات NCMEC والصور التي تم وضع علامة عليها ، ولا يمكن لأي شخص عرض الصور التي تم وضع علامة عليها حتى تصل مجموعة CSAM الخاصة بالمستخدم إلى “حد” معين من الصور.

لن تفحص Apple الصور المرسلة والمستلمة في تطبيق الرسائل لـ CSAM ، فقط تلك التي تم تحميلها على iCloud Photos (سيتم فحص الصور في الرسائل للقصر المشاركين في ميزة الأمان بحثًا عن صور جنسية). سيتم تمييز الصور المضمنة في قاعدة البيانات فقط ، ولن يتم تصنيف أي CSAM غير موجود في قاعدة البيانات على هذا النحو.

أيضًا ، تقول Apple في الأسئلة الشائعة المتعلقة بالحماية الموسعة أن “Apple لن تتعلم أي شيء عن البيانات الأخرى المخزنة على الجهاز فقط”.

في الأسئلة الشائعة ، تقول Apple إنها لا تنوي السماح للحكومات أو وكالات إنفاذ القانون بالاستفادة من أداة مسح الصور هذه: “لقد واجهنا مطالب لإنشاء ونشر التغييرات التي فرضتها الحكومة والتي تقلل من خصوصية المستخدمين من قبل ، ولدينا ذلك بثبات رفضت تلك المطالب “.

نظرًا لأن جميع عمليات المعالجة تتم على الجهاز ، تقول Apple إنه لا يوجد حل وسط لنظام التشفير الشامل للشركة ، ولا يزال المستخدمون آمنين من التنصت. لكن فكرة مسح الصور ضوئيًا بحثًا عن صور غير مناسبة تخلق بالفعل تأثيرًا مخيفًا ، مع فكرة أن المحادثة ، بطريقة ما ، تخضع للمراقبة.

هل يمكنك الانسحاب؟

بينما يحتوي كل جهاز iOS على هذه الأدوات ، فإن هذا لا يعني أن كل جهاز سيخضع لمقارنات الصور الخاصة به. يمكنك تعطيل تحميل صورك إلى صور iCloud إذا كنت لا تريد أن تقوم Apple بمسح صورك ضوئيًا. لسوء الحظ ، هذه عقبة كبيرة ، نظرًا لأن iCloud Photos تحظى بشعبية كبيرة وميزة رئيسية في خدمة iCloud من Apple ككل.

بالنسبة إلى ميزة أمان الاتصال في الرسائل ، بمجرد الاشتراك ، تعمل أداة مسح الصور الجديدة فقط عند التواصل مع مستخدم يقل عمره عن 18 عامًا على حساب Apple Family مشترك.

لماذا تفعل Apple هذا الآن؟

تدعي Apple أنها تنفذ هذه السياسة الآن بسبب فعالية الأدوات الجديدة في كل من اكتشاف CSAM وكذلك الحفاظ على خصوصية بيانات المستخدمين قدر الإمكان. يحدث اكتشاف CSAM على الجهاز ، مما يعني أن Apple لا يمكنها رؤية أي صور ، حتى CSAM ، حتى يتم اكتشاف حالات متعددة. وفقًا للشركة ، يجب ألا تكشف ميزة مسح الصور من Apple أبدًا عن أي صور غير CSAM لشركة Apple.

لم تكن الشركة أول من قام بالبحث عن هذا النوع من المحتوى: شركات مثل Facebook و Google و YouTube لديها سياسات CSAM أيضًا ، يقوم بمسح جميع الصور ومقاطع الفيديو التي تم تحميلها بحثًا عن نشاط مشابه باستخدام تقنية “التجزئة” المشابهة التي تقارنها بقاعدة بيانات معروفة لـ CSAM.

يثير العديد من المدافعين عن الخصوصية والمؤسسات مخاوف عندما يتعلق الأمر بمسح صور المستخدم والتزام Apple بالخصوصية ، على الرغم من النوايا الحسنة. يعتقد النقاد أن أي برنامج يقوم بمسح البيانات المشفرة التي ينشئها المستخدم من المحتمل أن يتم إساءة استخدامه.

ويوجد لدى منتقدي التغيير الأخير الذي أجرته شركة آبل مجموعة من الأدلة التي تدعمها. تدعي مؤسسة Electronic Frontier Foundation ، في بيان لها ، أنه لا توجد طريقة آمنة لبناء مثل هذا النظام دون المساس بأمان المستخدم ، وتشير إلى أنه تم إعادة توجيه خدمات مسح الصور المماثلة للبحث عن الصور المتعلقة بالإرهاب مع القليل من الإشراف.

“لا تخطئ: هذا انخفاض في الخصوصية لجميع مستخدمي iCloud Photos ، وليس تحسنًا” ، كما تقول المنظمة المؤيدة للخصوصية في بيان ينتقد الميزة الجديدة.

اكتب ل باتريك لوكاس أوستن في [email protected]



Source link

Leave a Comment

Your email address will not be published. Required fields are marked *