طبق گزارش وال استریت ژورنال، اپل به توسعه فناوری برای شناسایی سوء استفاده جنسی احتمالی از کودکان (CSAM) که در دستگاه های کاربر ذخیره می شود، پایان داده است.
این طرح پاییز گذشته با هدف توسعه iOS 15 رونمایی شد. اما واکنش های شدیدی را به دنبال داشت. زیرا کارشناسان رمزگذاری و حفظ حریم خصوصی مصرف کنندگان در مورد خطرات ایجاد سیستم های نظارتی که مستقیماً بر تلفن، لپ تاپ یا تبلت شما نظارت می کنند، هشدار داده اند.
دسامبر گذشته، اپل اعلام کرد که برنامه هایش در این زمینه تغییری نکرده است. اما حالا کریگ فدریگیمعاون نرم افزار اپل می گوید: سوء استفاده جنسی را می توان قبل از وقوع آن متوقف کرد.
فدریگی در پاسخ به این سوال که گسترش رمزگذاری چه تأثیری بر کار مأموران اجرای قانون در تحقیق جرایم میگذارد، گفت: «در نهایت، ایمن نگهداشتن دادههای مشتریان پیامدهای بزرگی برای ایمنی ما بهطور گستردهتر دارد».
اپل اکنون در حال گسترش رمزگذاری سرتاسری است که شامل پشتیبانگیری از تلفن و افزودن ویژگیهای جدید دیگر با هدف حفظ حریم خصوصی و امنیت هنگام استفاده از iMessage و دادههای ذخیره شده در iCloud است.
امسال، اپل بخشی از فناوری را که پاییز گذشته با نام «امنیت ارتباطی iMessage» در ایالات متحده به عنوان بخشی از بهروزرسانی iOS 15.2 معرفی کرد، و در کشورهای دیگر با تغییراتی در برنامه اصلی معرفی کرد. این یک ویژگی اختیاری برای برنامه پیام رسانی است که به تنظیمات می رود Family Sharing متصل است و تصاویر ورودی و خروجی را برای محتوای نامناسب در حساب های کودکان اسکن می کند.
در این فناوری در صورت شناسایی موارد ممنوعه، تصویر تار می شود و پیامی برای راهنمایی و کمک گرفتن یا مسدود کردن فرستنده نمایش داده می شود. در طراحی اولیه، به نظر میرسید که این فناوری بهطور خودکار والدین را از هر گونه تشخیص سوء استفاده جنسی مطلع میکند. اما همانطور که گفته شد، فقط به عنوان یک گزینه در دسترس کاربر است.