كان هناك الكثير من الحديث عن ماسح آبل CSAM (مواد الاعتداء الجنسي على الأطفال) . الآن أصبح الماسح في الأخبار مرة أخرى حيث يبدو أن المتسللين قد يكونون على بعد خطوة واحدة من خداع الماسح الضوئي CSAM وإنشاء إيجابيات خاطئة.
مشكلة الماسح الضوئي CSAM من Apple
و رديت المستخدم عكس هندستها لفهم أبل NeuralHash خوارزمية ل كشف CSAM على الجهاز. من خلال القيام بذلك ، اكتشفوا تصادمًا محتملاً في التجزئة يمكن أن يؤدي إلى نتائج إيجابية خاطئة. A الاصطدام هو حادث محتمل أن يحدث عندما تكون البيانات هما نفس القيمة التجزئة، اختباري، بصمات الأصابع، أو التشفير هضم.
أنتج المشفر المسمى Cory Cornelius تصادمًا في الخوارزمية ، مما يعني أنهم عثروا على صورتين تخلقان نفس التجزئة. يمكن استخدام هذا لإنشاء إيجابيات كاذبة ، مما يشير إلى أن الصور تحتوي على إساءة معاملة الأطفال ، حتى لو كانت غير ضارة تمامًا.
على الرغم من أن الأمر لن يكون سهلاً بالتأكيد ، إلا أن هناك فرصة أن يقوم أحد المتطفلين بإنشاء صورة تؤدي إلى تشغيل تنبيهات CSAM على الرغم من أنها ليست صورة CSAM.
Apple لديها طبقات مصممة للتأكد من أن النتائج الإيجابية الزائفة لا تسبب أي مشاكل. على سبيل المثال ، عند وضع علامة على صورة ما ، يجب أن يراجعها شخص حقيقي قبل إرسالها إلى الشرطة. قبل الوصول إلى هذه النقطة ، سيحتاج المتسلل إلى الوصول إلى قاعدة بيانات NCMEC ، وإنشاء 30 صورة متضاربة ، ثم وضعها جميعًا على هاتف الهدف.
ومع ذلك ، إنها مجرد مشكلة أخرى تأتي مع ماسح CSAM من Apple. كانت هناك بالفعل معارضة هائلة ، وحقيقة أن المبرمجين تمكنوا من عكس الهندسة أمر مقلق للغاية. بدلاً من ظهور تصادم يستغرق شهورًا ، تم اكتشاف واحد في غضون ساعات من إصدار الكود. هذا مقلق.
هل ستفعل آبل شيئًا ما؟
فقط الوقت سيحدد كيف تتعامل Apple مع هذا الموقف. يمكن للشركة التراجع عن خطتها لاستخدام خوارزمية NeuralHash. على الأقل ، يجب على الشركة معالجة الموقف ، حيث إن الثقة في خطة مسح الصور من Apple منخفضة بالفعل.