به گزارش بخش ترجمه شرکت‌ها، به نقل از BBC، در صورت یافتن هرگونه همخوانی، اپل این اتفاق را به مرکز ملی کودکان مفقود و مورد سوء‌استفاده قرار گرفته ایالات متحده (NCMEC) گزارش می‌دهد. این در حالی است که هنوز مشخص نیست این شرکت در خارج از ایالات متحده این اطلاعات را با کدام مقامات دولتی یا سازمان دیگر به اشتراک خواهد گذاشت و آیا این ویژگی‌ها در خارج از ایالات متحده نیز در دسترس خواهند بود یا خیر. از دیگر ویژگی‌های اعلام شده توسط اپل می‌توان به اسکن پیام‌های رمزگذاری شده از طرف والدین برای تشخیص زمان دریافت یا ارسال عکس جنسی توسط کودک، ارائه منابع مفید به آنها و همچنین اطمینان خاطر دادن به کودکان در مورد اینکه مشکلی نیست اگر نخواهند عکس را ببینند، اشاره کرد. این اعلامیه نگرانی فوری متخصصان سرشناس علوم رایانه‌ای از جمله راس اندرسون، استاد مهندسی دانشگاه کمبریج و متیو گرین، استادیار رمزنگاری در دانشگاه جان‌هاپکینز را برانگیخته است. پروفسور اندرسون این ایده را برای فایننشال تایمز بسیار وحشتناک توصیف کرد و هشدار داد این امر منجر به نظارت گسترده بر گوشی‌ها و لپ‌تاپ‌های ما می‌شود.

دکتر گرین، کسی که قبل از اینکه اپل بیانیه‌ای ارائه دهد، این برنامه را اعلام کرده بود در توییتر هشدار داد که صرف نظر از برنامه‌های بلند‌مدت اپل، آنها یک سیگنال بسیار واضح ارسال کرده‌اند. از نظر آنها ساختن سیستم‌هایی که تلفن کاربران را برای محتوای ممنوعه اسکن می‌کنند، بی‌خطر است. اینکه آیا این اقدام در آن نقطه درست یا غلط به نظر می‌رسد، اهمیت چندانی ندارد. دکتر گرین افزود: این موضوع تابوها را می‌شکند و دولت‌ها آن را از همه مطالبه خواهند کرد و زمانی که ما متوجه شویم این کار اشتباه بوده است، خیلی دیر خواهد شد.

اما انتقادها از این ویژگی، یک‌طرفه نبوده و طرفدارانی نیز دارد. جان کلارک، رئیس و مدیر اجرایی NCMEC، دراین خصوص اظهار کرد: همه ما می‌دانیم که جنایت علیه کودکان تنها در صورتی قابل جلوگیری است که ما در تعهد خود به حفاظت از کودکان قاطع باشیم. ما می‌توانیم این کار را انجام دهیم، زیرا شرکای فناوری ما، مانند اپل، گام‌های خوبی در این راستا برداشته و تعهد خود را نشان داده‌اند. ساجد جاوید، وزیر امور خارجه پیشین بریتانیا توییت کرد که خوشحالم اپل اقدامات هدفمندی را برای مقابله با سوء استفاده جنسی از کودکان انجام داده است. پروفسور میهی بلار، دانشمند علوم رایانه‌ای در دانشگاه کالیفرنیا، سن دیگو، استفان بالکام، مدیر اجرایی موسسه ایمنی آنلاین خانواده و اریک هولدر، دادستان کل سابق ایالات متحده نیز از دیگر افرادی هستند که این اقدام را تحسین کرده‌اند.

 شرکت اپل به اسکای نیوز تاکید کرد‌: این سیستم تشخیص با در نظر گرفتن حفظ حریم خصوصی کاربران ساخته شده است و به این ترتیب فقط می‌تواند تصاویر سوءاستفاده‌گرایانه را شناسایی کند و با تصاویری که توسط NCMEC جمع‌آوری شده تطبیق دهد. اپل ادعا می‌کند این سیستم این کار را روی دستگاه کاربران انجام می‌دهد و قبل از اینکه تصویر در iCloud بارگذاری شود، انجام خواهد شد.

با این حال، دکتر گرین هشدار داد که نحوه عملکرد سیستم بارگذاری آن، خطرات امنیتی جدیدی را برای کاربران ایجاد می‌کند، زیرا الگوریتم آن به این صورت است که یک لیست از اثر انگشت‌های تولید شده توسط NCMEC  را که مطابق با پایگاه داده تصاویر سوء‌استفاده‌گرایانه است، ارائه می‌دهد. هر کسی که این لیست را کنترل می‌کند می‌تواند هر محتوایی را که می‌خواهد در تلفن شما جست‌وجو کند و شما واقعا راهی ندارید که بدانید چه چیزی در آن لیست وجود دارد، زیرا این لیست برای کاربران نامرئی است. دکتر گرین اضافه کرد:  در این نظریه شما در نهایت به اپل اعتماد خواهید کرد که فقط تصاویری که واقعا بد هستند شامل این طرح می‌شوند، مانند تصاویری که توسط NCMEC از پیش تنظیم شده‌اند.

 البته بهتر است به آنها اعتماد کنید، زیرا اعتماد تنها چیزی است که شما دارید. اپل در توضیح این فناوری خاطرنشان کرد به‌جای اسکن تصاویر در فضای ابری، این سیستم با استفاده از پایگاه داده‌ای از هش‌های شناخته شده در خصوص مطالب مربوط به سوء استفاده جنسی از کودکان، ارائه شده توسط NCMEC و سایر سازمان‌های محافظت از حقوق کودکان، مطابقت روی دستگاه را انجام می‌دهد. سیستم اثر انگشتی که اپل از آن استفاده می‌کند NeuralHash نام دارد که یک عملکرد هش ادراکی است که از یک روش متفاوت استفاده می‌کند؛ به این ترتیب که اثر انگشتی را برای تصاویر به شیوه‌ای متفاوت از توابع هش رمزنگاری سنتی ایجاد می‌کند.

همچنین اعتقاد بر این است که فیس‌بوک در برنامه خود که تصاویر جنسی خصوصی کاربران را ذخیره می‌کند، از هش ادراکی استفاده می‌کند تا از مشاهده این مطالب توسط افراد غریبه جلوگیری شود. این الگوریتم‌های هش، طوری طراحی شده‌اند که بتوانند تصویر یکسانی را حتی در صورت تغییر، شناسایی کنند، چیزی که هش‌های رمزنگاری‌کننده آن را در نظر نمی‌گیرند. اپل می‌گوید: هدف ما ایجاد فناوری است که به افراد قدرت بخشد و زندگی آنها را ارتقا دهد، در حالی که به آنها کمک می‌کند ایمن بمانند. ما می‌خواهیم از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی و رسانه‌های اجتماعی برای جذب و سوء‌استفاده از آنها استفاده می‌کنند، محافظت کنیم و انتشار مطالب سوء استفاده جنسی از کودکان را محدود کنیم. اپل افزود: هرچند این برنامه بلندپروازانه است، اما حفاظت از کودکان نیز یک مسوولیت مهم است و این تلاش‌ها در طول زمان تکامل یافته و گسترش می‌یابد.