به گزارش ورج، اپل جزئیات بیشتری درباره برنامه اسکن تصاویر آی‌کلود کاربران جهت ردیابی محتوای کودک آزاری فاش کرده است. این شرکت تحقیقی جدید درباره اقدامات ایمنی منتشر کرده که به افزایش اعتماد کاربران به این برنامه منجر می‌شود.

اقدامات مذکور شامل قانونی است که فقط تصاویری در آی‌کلود کاربر نشان‌گذاری می‌شوند که در چند مخزن داده امنیت کودکان‌(وابسته به دولت‌های مختلف) وجود داشته باشند. به این ترتیب چنین اقدامی اجازه نمی‌دهد فقط یک کشور به محتوای کودک آزاری در سیستم بیفزاید. به طور دقیق‌تر اپل فقط به داده‌های یک مخزن اطلاعاتی از یک کشور اکتفا نمی‌کند و تصاویر آی‌کلود کاربران را حداقل با دو مخزن داده مربوط به سازمان‌های ملی مختلف مقایسه می‌کند.

نسخه‌های آینده iOS و iPadOS به طور خودکار تصاویر حساب‌های کاربری آی‌کلود را با مخزن‌های شناخته شده محتوای کودک‌آزاری مقایسه می‌کند. هرچند بسیاری از شرکت‌ها سرویس‌های ذخیره رایانش ابری را از راه دور کنترل می‌کنند، استراتژی اپل با انتقادات زیادی روبه‌رو شده است.

این مطلب برایم مفید است
2 نفر این پست را پسندیده اند