ضحايا CSAM يرفعون دعوى قضائية ضد شركة Apple لإسقاط أداة المسح المخطط لها

يقاضي الآلاف من ضحايا CSAM شركة Apple لإسقاطها خططًا لفحص الأجهزة بحثًا عن وجود مواد الاعتداء الجنسي على الأطفال.
بالإضافة إلى مواجهة غرامات تزيد عن 1.2 مليار دولار، قد تضطر الشركة إلى إعادة الخطط التي أسقطتها بعد أن أشار الكثير منا إلى خطر سوء الاستخدام من قبل الأنظمة القمعية…
القصة حتى الآن
تقوم معظم خدمات الحوسبة السحابية بفحص حسابات المستخدمين بشكل روتيني بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM)، باستخدام طريقة البصمات الرقمية.
تعد بصمات الأصابع هذه وسيلة لمطابقة صور CSAM المعروفة دون أن يضطر أي شخص إلى مشاهدتها، وهي مصممة لتكون غامضة بدرجة كافية لمواصلة مطابقة الصور التي تم اقتصاصها أو تحريرها بطريقة أخرى، مع توليد عدد قليل جدًا من النتائج الإيجابية الخاطئة. عند العثور على تطابق إيجابي، يتم بعد ذلك فحص الصورة يدويًا بواسطة إنسان. إذا أكد ذلك أن الصورة هي CSAM، فسيتم تقديم تقرير وإرساله إلى سلطات إنفاذ القانون.
تعد iCloud واحدة من الخدمات السحابية القليلة جدًا التي لا تقوم بهذا الفحص، حيث تشير Apple إلى الخصوصية كسبب.
في محاولة لتقديم مسح CSAM بطريقة تحترم الخصوصية، اقترحت شركة Apple تشغيل أداة أخذ البصمات لإجراء ذلك على الجهاز المسح على أساس أن هذا سيكون أقل تدخلاً من مسح صور iCloud. فقط إذا عديد تم العثور على تطابقات من خلال مراجعة الإنسان للصور، كوسيلة لتقليل مخاطر النتيجة الإيجابية الكاذبة.
وكانت المشكلة، كما لاحظ الكثير منا، هي احتمال إساءة استخدام الحكومات القمعية.
يمكن إنشاء بصمة رقمية ل أي نوع المادة، وليس CSAM فقط. ليس هناك ما يمنع أي حكومة استبدادية من إضافة صور ملصقات الحملات السياسية أو ما شابه ذلك إلى قاعدة البيانات.
إن الأداة المصممة لاستهداف المجرمين الخطرين يمكن تكييفها بشكل تافه للكشف عن أولئك الذين يعارضون الحكومة أو واحدة أو أكثر من سياساتها. وستجد شركة أبل – التي ستتلقى قاعدة بيانات بصمات الأصابع من الحكومات – نفسها تساعد عن غير قصد في القمع أو ما هو أسوأ من الناشطين السياسيين.
قالت شركة أبل في البداية إنها لن توافق على ذلك أبدًا، لكن الكثير منا أشاروا مرة أخرى إلى أنه لن يكون أمامها خيار آخر. وكما تقول الشركة في عبارتها الشهيرة في كل مرة يتعين عليها القيام بشيء غير واضح للامتثال للقانون، “تلتزم شركة أبل بالقانون في كل دولة من البلدان التي تعمل فيها”.
رفضت الشركة المصنعة لهواتف iPhone هذه الحجة في البداية، لكنها تخلت في النهاية عن خطط مسح CSAM الخاصة بها قبل أن تعترف متأخرًا بحقيقة المشكلة. استخدمت شركة Apple لاحقًا هذه الحجة لمعارضة التشريع المقترح.
ضحايا CSAM يرفعون دعوى قضائية
أرستيكنيكا تشير التقارير إلى أن ضحايا CSAM يرفعون الآن دعوى قضائية ضد شركة Apple لفشلها في إجراء المسح.
رفع آلاف الضحايا دعوى قضائية ضد شركة أبل بسبب فشلها المزعوم في اكتشاف المواد الإباحية غير القانونية المتعلقة بالأطفال والإبلاغ عنها، والمعروفة أيضًا باسم مواد الاعتداء الجنسي على الأطفال (CSAM). […]
اتهم الناجون من الاعتداء الجنسي على الأطفال الذين رفعوا دعوى قضائية شركة آبل باستخدام دفاع الأمن السيبراني لتجاهل واجبات الإبلاغ الإلزامية عن CSAM لعملاق التكنولوجيا. إذا فازت شركة آبل بهيئة المحلفين، فقد تواجه غرامات تزيد عن 1.2 مليار دولار. وربما على الأخص بالنسبة لدعاة الخصوصية، قد تضطر شركة أبل أيضًا إلى “تحديد وإزالة والإبلاغ عن مواد الاعتداء الجنسي على iCloud وتنفيذ السياسات والممارسات والإجراءات لمنع استمرار نشر مواد الاعتداء الجنسي على الأطفال أو الاتجار الجنسي بالأطفال على أجهزة وخدمات أبل”. قد يعني ذلك صدور أمر من المحكمة بتنفيذ الأداة المثيرة للجدل أو البديل الذي يلبي معايير الصناعة للكشف الشامل عن أسلحة الاعتداء الجنسي على الأطفال.
أبل متهمة بتوجيه التربح من سياستها.
وكما يرى الناجون، فإن شركة أبل تستفيد من السماح بانتهاكات الاعتداء الجنسي على الأطفال على iCloud، حيث ينظر المعتدون على الأطفال إلى منتجاتها باعتبارها ملاذًا آمنًا لتخزين الاعتداءات الجنسية والاعتداءات الجنسية، وهو ما تشير إليه معظم شركات التكنولوجيا الكبرى الأخرى. وأشارت الدعوى القضائية إلى أنه بينما أبلغت شركة آبل عن 267 حالة معروفة فقط من حالات الاعتداء الجنسي على الأطفال في عام 2023، قدمت أربع شركات تقنية رائدة أخرى أكثر من 32 مليون تقرير. وإذا استمر نهج شركة Apple المتساهل المزعوم تجاه CSAM دون رادع، فإن الناجين يخشون من أن الذكاء الاصطناعي قد يؤدي إلى زيادة كمية CSAM التي لا يتم الإبلاغ عنها بشكل كبير.
وقالت الشركة ردًا على ذلك إنها تتخذ خطوات استباقية لمعالجة المشكلة.
تعتبر مواد الاعتداء الجنسي على الأطفال أمرًا مقيتًا، ونحن ملتزمون بمحاربة الطرق التي يعرض بها المحتالون الأطفال للخطر. نحن نبتكر بشكل عاجل ونشط لمكافحة هذه الجرائم دون المساس بأمن وخصوصية جميع مستخدمينا. على سبيل المثال، تحذر ميزات مثل “أمان الاتصالات” الأطفال عندما يتلقون أو يحاولون إرسال محتوى يحتوي على عري للمساعدة في كسر سلسلة الإكراه التي تؤدي إلى الاعتداء الجنسي على الأطفال. نحن نواصل التركيز بشدة على بناء وسائل الحماية التي تساعد على منع انتشار مواد الاعتداء الجنسي على الأطفال قبل أن تبدأ.
خذ 9to5Mac
القضية هي وضع لا يربح فيه جميع المعنيين. هناك تعارض لا مفر منه بين الكشف عن جريمة بغيضة حقا وخطر استغلال الحكومة القمعية لها.
إذا كانت شركة Apple قد تبنت الممارسة القياسية المتمثلة في مسح صور iCloud منذ البداية، فمن المحتمل ألا يتحول هذا إلى قضية مثيرة للجدل أبدًا. ومن المفارقات أن محاولة الشركة تحقيق نفس الهدف بطريقة أكثر احترامًا للخصوصية هي التي أدت إلى هذا الجدل.
في هذه المرحلة، ربما يكون من مصلحة شركة Apple أن تحكم المحكمة في هذا الأمر. إذا كان يكون اضطرت الشركة إلى تنفيذ المسح، وكان على الحكومة المستقبلية استغلال ذلك، ويمكن للشركة على الأقل الإشارة إلى أنه ليس لديها خيار آخر. على العكس من ذلك، إذا فازت شركة أبل بالقضية، فقد تشكل سابقة قانونية من شأنها إزالة الضغط المستمر.
الصورة: دان جولد / Unsplash
FTC: نحن نستخدم الروابط التابعة التلقائية لكسب الدخل. أكثر.