ردیابی آپلود تصاویر کودک‌آزاری برای محافظت در برابر ردیابی اشتباه تصاویر غیرقانونی کارآمد است و به بازبینی محتوا توسط انسان و گزارش کاربر به نیروی مجری قانون منجر می‌شود. این شرکت ادعا می‌کند سیستم را طوری طراحی کرده تا تعداد تصاویری که به اشتباه کودک آزاری تلقی می‌شود، به یک در یک هزار میلیارد عکس کاهش یابد.  سیستم جدید اپل در پاسخ به در‌خواست مجریان قانون برای ریشه‌یابی آزار کودکان و با توجه به حفظ حریم خصوصی و امنیت افراد ایجاد شده است. البته برخی حامیان حریم خصوصی معتقدند چنین سیستمی مسیر را برای ردیابی محتوای سیاسی یا موارد دیگر ‌در آی‌فون باز می‌کند. این درحالی است که بسیاری از شرکت‌های بزرگ فناوری دیگر از جمله گوگل، فیس‌بوک و مایکروسافت تصاویر کاربران را با مخزنی از تصاویر کودک‌آزاری مقایسه و کنترل می‌کنند.

شیوه کارکرد سیستم اپل این‌گونه است؛ مقامات پلیس مخزنی از تصاویر کودک آزاری شناخته شده را در اختیار دارند که آنها را به کدهای عددی (hash) تبدیل می‌کنند تا شناسایی شوند. اما نمی‌توان از این کدها برای بازسازی تصاویر استفاده کرد. اپل با استفاده از فناوری به نام Neural Hash مخزن تصاویر مجریان قانون از کودک آزاری را اجرا کرده است. دیگر هدف از این اقدام ردیابی تصاویر ادیت شده و مشابه نمونه‌های اصلی است. این مخزن روی آی‌فون‌ها ذخیره می‌شود. هنگامی که کاربری تصویری را در آی‌کلود ذخیره می‌کند، آی‌فون یک کد عددی از تصویر می‌سازد تا آن را با مخزن داده مذکور مقایسه کند.  تصاویر ذخیره شده در آی‌فون فرد کنترل نمی‌شود و بازبینی محتوا توسط کارمند انسانی قبل از اطلاع به پلیس برای تضمین صحت فرآیند قبل از تعلیق حساب کاربری فرد است. به گفته اپل کاربرانی که احساس کنند حساب کاربری آنها بدون دلیل تعلیق شده می‌توانند به این امر اعتراض کنند.