تکنولوژی

از اپل به دلیل توقف برنامه شناسایی محتواهای کودک‌آزاری در iCloud شکایت شد

به گفته نیویورک تایمز، در این مورد، دختر می‌گوید که غریبه‌هایی لینک ویدیوهای CSAM مختلف را از طریق iCloud برای او می‌فرستادند و او را تشویق می‌کردند تا فیلم‌های مشابهی از خود ضبط و آپلود کند.

سخنگوی اپل نیز در بیانیه‌ای گفت: «محتوای کودک‌آزاری نفرت‌انگیز است و ما متعهد به مبارزه با روش‌هایی هستیم که از طریق آن سوءاستفاده‌گران کودکان را در معرض خطر قرار می‌دهند.

یکی از قربانیان سوءاستفاده جنسی و کودک‌آزاری از اپل به دلیل عدم اجرای طرح اسکن تصاویر در iCloud برای یافتن محتواهای کودک‌آزاری (CSAM) شکایت کرد. در سال 2021، اپل اعلام کرده بود که روی ابزاری برای شناسایی CSAM کار می‌کند که چنین سوءاستفاده‌هایی را تشخیص می‌دهد و مرکز ملی کودکان مفقود و مورد سوءاستفاده قرارگرفته را مطلع می‌کند. اما بعداً این برنامه را معلق کرد.

براساس گزارش نیویوک تایمز ، یک زن 27 ساله که در کودکی توسط یکی از بستگان خود قربانی آزار جنسی شده بود، از اپل به دلیل توقف قابلیت تشخیص CSAM شکایت کرد. او در شکایت خود می‌گوید که اپل با حذف ویژگی اسکن CSAM از iCloud، وعده خود برای محافظت از قربانیانی مانند او را زیر پا گذاشته است.

به گفته یکی از وکلای این زن، شکایت علیه اپل خواستار تغییر در رویه‌های این شرکت و پرداخت غرامت احتمالی به گروهی متشکل از 2 هزار 680 قربانی واجد شرایط دیگر است. طبق قانون فعلی، قربانیان کودک‌آزاری می‌توانند حداقل 150 هزار دلار غرامت دریافت کنند. اگر همه شاکیان بالقوه در شکایت این زن غرامت بگیرند، درصورتی که اپل مسئول شناخته شود، مجموع خسارت ممکن است بالغ بر 1.2 میلیارد دلار باشد.

شکایت از اپل برای عدم شناسایی محتواهای کودک‌آزاری

در یک پرونده جداگانه نیز، وکلایی به نمایندگی از یک قربانی 9 ساله کودک‌آزاری در ماه آگوست امسال از اپل شکایت کردند. به گفته نیویورک تایمز، در این مورد، دختر می‌گوید که غریبه‌هایی لینک ویدیوهای CSAM مختلف را از طریق iCloud برای او می‌فرستادند و او را تشویق می‌کردند تا فیلم‌های مشابهی از خود ضبط و آپلود کند.

سخنگوی اپل نیز در بیانیه‌ای گفت: «محتوای کودک‌آزاری نفرت‌انگیز است و ما متعهد به مبارزه با روش‌هایی هستیم که از طریق آن سوءاستفاده‌گران کودکان را در معرض خطر قرار می‌دهند. ما برای مبارزه با این جرایم بدون به خطر انداختن امنیت و حریم خصوصی کاربران خود، فوری و فعالانه دست به نوآوری زده‌ایم.»

سخنگوی اپل از قابلیتی مانند «ایمنی ارتباطات» (Communication Safety) در اپلیکیشن Messages نام می‌برد که به کودکان هنگام دریافت یا تلاش برای ارسال محتوای حاوی برهنگی هشدار می‌دهد تا به شکستن زنجیره‌ای که منجر به سوءاستفاده جنسی از کودکان می‌شود، کمک کند.

توسط
دیجیاتو
منبع
دیجیاتو
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا