اپل سیستم تشخیص سوء استفاده جنسی از کودکان را لغو کرد


طبق گزارش وال استریت ژورنال، اپل به توسعه فناوری برای شناسایی سوء استفاده جنسی احتمالی از کودکان (CSAM) که در دستگاه های کاربر ذخیره می شود، پایان داده است.

این طرح پاییز گذشته با هدف توسعه iOS 15 رونمایی شد. اما واکنش های شدیدی را به دنبال داشت. زیرا کارشناسان رمزگذاری و حفظ حریم خصوصی مصرف کنندگان در مورد خطرات ایجاد سیستم های نظارتی که مستقیماً بر تلفن، لپ تاپ یا تبلت شما نظارت می کنند، هشدار داده اند.

دسامبر گذشته، اپل اعلام کرد که برنامه هایش در این زمینه تغییری نکرده است. اما حالا کریگ فدریگیمعاون نرم افزار اپل می گوید: سوء استفاده جنسی را می توان قبل از وقوع آن متوقف کرد.

محافظت از سوء استفاده جنسی از کودکان در سیستم اپل

فدریگی در پاسخ به این سوال که گسترش رمزگذاری چه تأثیری بر کار مأموران اجرای قانون در تحقیق جرایم می‌گذارد، گفت: «در نهایت، ایمن نگه‌داشتن داده‌های مشتریان پیامدهای بزرگی برای ایمنی ما به‌طور گسترده‌تر دارد».

اپل اکنون در حال گسترش رمزگذاری سرتاسری است که شامل پشتیبان‌گیری از تلفن و افزودن ویژگی‌های جدید دیگر با هدف حفظ حریم خصوصی و امنیت هنگام استفاده از iMessage و داده‌های ذخیره شده در iCloud است.

امسال، اپل بخشی از فناوری را که پاییز گذشته با نام «امنیت ارتباطی iMessage» در ایالات متحده به عنوان بخشی از به‌روزرسانی iOS 15.2 معرفی کرد، و در کشورهای دیگر با تغییراتی در برنامه اصلی معرفی کرد. این یک ویژگی اختیاری برای برنامه پیام رسانی است که به تنظیمات می رود Family Sharing متصل است و تصاویر ورودی و خروجی را برای محتوای نامناسب در حساب های کودکان اسکن می کند.

مقاله مرتبط:

در این فناوری در صورت شناسایی موارد ممنوعه، تصویر تار می شود و پیامی برای راهنمایی و کمک گرفتن یا مسدود کردن فرستنده نمایش داده می شود. در طراحی اولیه، به نظر می‌رسید که این فناوری به‌طور خودکار والدین را از هر گونه تشخیص سوء استفاده جنسی مطلع می‌کند. اما همانطور که گفته شد، فقط به عنوان یک گزینه در دسترس کاربر است.