فیس بوک به طور خودکار تمامی پست های کاربران ایالات متحده را رتبه بندی می کند و در مقیاسی از ۰ تا ۱ برای خطر آسیب های احتمالی شخصیتی و روانی مثل خودکشی امتیاز بندی می کند. درواقع فیسبوک تقریبا هر پستی را روی پلت فرم خود اسکن می کند تا تلاش کند خطر خودکشی را ارزیابی و رده بندی کند.

با این وجود برخی از کارشناسان حفظ حریم خصوصی می گویند چه کاربران بخواهند نتایج این آزمونها را دریافت کنند و چه نخواهند، باز هم فیسبوک این اطلاعات را فارغ از نظر کاربران بررسی می کند و در نتیجه این یک خطر بزرگ برای حریم خصوصی کاربران است.

در ماه مارس سال ۲۰۱۷، فیسبوک یک طرح بلندپروازانه برای جلوگیری از خودکشی با هوش مصنوعی راه اندازی کرد. این موضوع از زمانی پررنگ شد که برخی از افراد شروع به خودکشی و پخش زنده آن در شبکه های اجتماعی کردند و حتی برخی از افراد، شبکه های اجتماعی را مقصر اصلی این نوع حوادث ارزیابی کردند.

اما بیش از یک سال بعد، پس از یک موج رسوائی های حفظ حریم خصوصی کمبریج آنالیتیکا ، ایده فیس بوک در حوزه ایجاد و ذخیره اطلاعات بهداشت روانی بدون اجازه کاربر،  باعث نگرانی کارشناسان حریم خصوصی در مورد این شده است که  آیا فیسبوک می تواند منبعی قابل اعتماد برای بررسی اطلاعات افراد باشد؟

روند فعالیت این الگوریتم چگونه است؟

این الگوریتم تقریبا به هر پست که یک کاربر در فیسبوک  منتشر می کند مربوط می شود، هر قطعه از این محتواها  در یک مقیاس رده بندی می شود و یکی از آن ها بالاترین احتمال «آسیب روانی» را بیان می کند.اما این روند ایجاد اطلاعات به تنهایی موجب نگرانی برای ناتاشا دوارتی، تحلیلگر سیاست در مرکز دموکراسی و فناوری ایالات متحده  می شود. او می گوید: "من فکر می کنم این باید به عنوان دسترسی فیسبوک به اطلاعات بهداشتی حساس در نظر گرفته شود.هر کسی که این نوع اطلاعات را جمع آوری می کند یا اینکه این نوع از نتیجه گیری ها را در مورد افراد ایجاد می کند، باید آن را به عنوان اطلاعات بهداشتی حساس و مخفی رده بندی کند و از مقامات فدرال اجازه داشته باشد."

این در حالیست که در حال حاضر شرکت هایی مانند فیسبوک که در زمینه سلامت فرد از منابع داده های غیرمستقیم نتیجه گیری می کنند، در مقررات مربوط به حریم خصوصی در نظر گرفته نمی شوند فیسبوک، این اطلاعات را اندازه گیری می کند اما به عنوان اطلاعات حساس طبقه بندی نمی کند.

بررسی الگوریتم فیسبوک به این معنی نیست که به طور صد در صد می توان رفتارهای حقیقی افراد را از روی رفتارهای مجازی آنان پیشبینی کرد، بلکه شاید تنها بتوان حدس زد که برخی از افراد به کمک نیاز دارند.

آیا الگوریتم فیسبوک قابل اعتماد است؟

در ماه سپتامبر، فیسبوک اعتراف کرد که یک نقض گسترده حیم  داده ها و پروفایل های حدود ۳۰ میلیون نفر را تجربه کرده است.  بنابراین آیا می توان مطمئن نبود که فیسبوک اطلاعات مرتبط با  وضعیت روانی افراد را به سازمان هایی که قصد استخدام افراد را دارند نفروشد؟

درواقع سوال برخی این است که اصلا چه کسی می تواند اطلاعات سلامت روان در فیسبوک را ببیند؟

هنگامی که یک پست برای خطر بالقوه خودکشی پرچم گذاری می شود، آن متن به تیم نظارتی محتوا ارسال می شود. فیسبوک مدعی است به تیم ناظر آموزش داده که کدام نوع از پست ها خطرناک تر هستند. روزنامه وال استریت ژورنال با بررسی هزاران نفر از مدیران محتوا فیس بوک در سال ۲۰۱۷، می گوید آنها به طور عمده کارکنان قراردادی بودند.

پس از بررسی اولیه اگر قصد خودکشی کاربر جدی گرفته شود، حتما به پلیس اطلاع داده خواهد شد. فیسبوک می گوید طی سال گذشته میلادی موفق شده به ۳۵۰۰ نفر در سراسر جهان کمک کند. البته این مداخلات همیشه هم موفق نیست و گاهی منجر به درگیری افرادی با پلیس می شود که اصلا قصد خودکشی نداشتند.

فیس بوک از الگوریتم خودکشی برای اسکن پست ها در زبان های انگلیسی، اسپانیایی، پرتغالی و عربی استفاده می کند، اما پست ها را در اتحادیه اروپا اسکن نمی کند، چرا که قوانین سخت گیرانه اتحادیه اروپا مانع از این کار است.

طبق گزارش سازمان بهداشت جهانی، تقریبا ۸۰۰ هزار نفر سالانه خودکشی می کنند و بسیاری از این افراد را نوجوانان  تشکیل می دهند، بنابراین شاید فارغ از ماجرای حفظ حریم خصوصی بتوان امیدوار بود فیسبوک نقشی مثبت در کنترل افسردگی و خودکشی ایفا کند.