آی‌بی‌ام برای حل این مشکل اخیرا در حال توسعه یک ابزار مبتنی بر هوش مصنوعی به نام «Fairness ۳۶۰» است. «کاش آر وارشنی» (Kush R. Varshney) پژوهشگر هوش مصنوعی آی‌بی‌ام در مصاحبه با پایگاه خبری گیزمگ گفت: ابزار مذکور دارای چندین جزء است. کار نخست این ابزار بررسی تبعیض جنسیتی است، دومین کارکرد آن بررسی این است که این اتفاقات چگونه رخ می‌دهند و این رخدادها در نظر کاربران چگونه است و کار نهایی آن اصلاح داده‌های غلط الگوریتم‌ها است. وارشنی در ادامه گفت: کار اصلی ابزاری که ما توسعه داده‌ایم این است که به آسانی تبعیض‌های جنسیتی را مورد بررسی قرار می‌دهد. الگوریتم مذکور شامل ۱۰ الگوریتم مختلف برای حذف یا کاهش تبعیض‌های جنسیتی است. این الگوریتم‌ها به سه دسته تقسیم می‌شوند. یک گروه داده‌ها را از قبل پردازش می‌کنند تا اطمینان حاصل شود که عملکرد سیستم‌های تشخیص چهره برای تمامی افراد یکسان است. مرحله بعد، تنها پردازش داده‌ها است که ساختن محافظ‌های الگوریتمی برای برداشتن تبعیض‌های جنسیتی داده‌ای را شامل می‌شود. در نهایت پژوهشگران اظهار کردند هدف آنها از توسعه این ابزار طراحی یک سیستم هوش مصنوعی است که الگوریتم‌های آن عملکردی بدون تعصب و کاملا بی‌طرف داشته باشند.