اگر به دهه‌‌‌‌ها و سده‌‌‌‌های گذشته نگاه ‌‌‌‌کنیم می‌‌‌‌بینیم که قضاوت‌‌‌‌ها و تصمیم‌‌‌‌گیری‌‌‌‌های قضایی در مورد برخی افراد به‌‌‌‌خصوص افراد فقیر و رنگین‌‌‌‌پوست و اقلیت‌‌‌‌های قومی و مذهبی با بی‌‌‌‌عدالتی و خطای انسانی همراه بوده و در سال‌‌‌‌های اخیر تقاضای زیادی برای ورود هوش مصنوعی و ماشین‌‌‌‌ها و نرم‌‌‌‌افزارها به موضوع قضاوت مطرح شده است.

از نظر تئوریک، الگوریتم‌‌‌‌ها و ماشین‌‌‌‌ها این قابلیت را دارند که به بهبود و تقویت تصمیم‌‌‌‌گیری‌‌‌‌های قضات کمک کنند. این ابزارها به این دلیل که کاملا بی‌‌‌‌طرف و بدون سوگیری خاصی عمل می‌‌‌‌کنند و دچار پیش‌‌‌‌قضاوت و خصومت فردی و اجتماعی با فرد یا گروه خاصی نیستند، از این توانایی برخوردارند که قضاوت‌‌‌‌هایی کاملا بی‌‌‌‌طرفانه و منصفانه داشته باشند.

علاوه بر این، هوش مصنوعی و الگوریتم‌‌‌‌ها می‌‌‌‌توانند در مدت بسیار کوتاهی و با سرعتی بسیار بیشتر از انسان‌‌‌‌ها به پرونده‌‌‌‌های قضایی رسیدگی کنند و به‌‌‌‌گونه‌‌‌‌ای بی‌‌‌‌نقص و سریع عمل کنند که پس از مدتی ضمن به صفر رساندن پرونده‌‌‌‌های قضایی بلاتکلیف و از قبل به‌‌‌‌جامانده، تمام قضات و وکلا را به بازنشستگی زودتر از موعد. و در نتیجه شغلی به نام قضاوت و وکالت را به بایگانی تاریخ بفرستند.

هر ساله بیش از ۱۰ میلیون نفر توسط پلیس آمریکا بازداشت می‌‌‌‌شوند. برخی از آنها به صلاحدید قاضی و پلیس و تا زمان برگزاری جلسه دادگاه به‌‌‌‌صورت موقت آزاد می‌‌‌‌‌‌‌‌شوند و برخی دیگر مجبورند تا آن زمان همچنان در بازداشت پلیس باقی بمانند.

با این‌‌‌‌ همه، بارها دیده شده بسیاری از افرادی که آزادی موقتشان با نظر قاضی و پلیس بلامانع اعلام شده بود، پس از آزادی یا فرار کرده‌‌‌‌اند یا مرتکب جرم‌‌‌‌های خطرناکی شده‌‌‌‌اند. این امر نشان می‌‌‌‌دهد قضاوت و تصمیم‌‌‌‌گیری انسان‌‌‌‌ها در این ‌‌‌‌خصوص اشتباه بوده است.

به همین دلیل هم هست که طی چند سال اخیر تمایل پلیس و سیستم قضایی آمریکا به استفاده از هوش مصنوعی و الگوریتم‌‌‌‌هایی مانند COMPAS برای تصمیم‌‌‌‌گیری در مورد آزادی موقت افراد بازداشت شده یا نگه ‌‌‌‌داشتن آنها در بازداشتگاه تا زمان برگزاری دادگاه به میزان چشمگیری افزایش داشته است.

اما سوالی که ذهن خیلی‌‌‌‌ها را درگیر خود کرده این است که چه تضمینی وجود دارد الگوریتم‌‌‌‌ها و ماشین‌‌‌‌ها بتوانند بدون خطا و در هر شرایطی بهترین تصمیم ممکن را در مورد آزادی موقت متهمان و به‌‌‌‌طورکلی در پرونده‌‌‌‌های قضایی اتخاذ کنند؟

 آیا احتمال اشتباه ‌‌‌‌کردن هوش مصنوعی و زندانی ‌‌‌‌شدن یا حتی اعدام افراد بی‌‌‌‌گناه وجود ندارد؟ آیا الگوریتم‌‌‌‌ها واقعا می‌‌‌‌توانند آینده را بهتر از قضات پیش‌‌‌‌بینی کنند؟

«اصل دنیای ثابت» به ما می‌‌‌‌گوید که چون ابهامات و پیچیدگی‌‌‌‌ها در مورد پرونده‌‌‌‌های قضایی و دلایل پشت پرده وقوع جرائم زیاد است هوش مصنوعی و الگوریتم‌‌‌‌ها نمی‌‌‌‌توانند عملکردی بی‌‌‌‌نقص و عالی از خود ارائه دهند و احتمال اشتباهات مهلک و نابخشودنی در این میان وجود دارد. واقعیت این است که قضات و کارشناسان امور حقوقی و جرائم در شرایطی مملو از ابهام و سردرگمی فعالیت می‌‌‌‌کنند و در چنین موقعیت‌‌‌‌هایی احتمال موفقیت قطعی الگوریتم‌‌‌‌ها تا حد زیادی پایین خواهد بود، چرا که الگوریتم‌‌‌‌ها و ماشین‌‌‌‌ها فقط زمانی می‌‌‌‌توانند بی‌‌‌‌نقص و عالی کار کنند که همه چیز شفاف و مشخص باشد و خبری از ابهام و عوامل پنهان و انتزاعی در میان نباشد.

عدالت شفاف

به عقیده بسیاری از کارشناسان و صاحب‌‌‌‌نظران، مهم‌‌‌‌ترین عاملی که می‌‌‌‌تواند موفقیت و دقت الگوریتم‌‌‌‌هایی مانند COMPAS را تضمین کند «شفافیت» است. در واقع بدون وجود شفافیت در مورد عملکرد الگوریتم‌‌‌‌های مخصوص امر قضاوت، به‌‌‌‌سختی می‌‌‌‌توان ادعا کرد که چنین الگوریتم‌‌‌‌هایی کاملا بی‌طرف و منصف باشند و احتمال اشتباه یا سوگیری آنها در حد صفر باشد.

به‌‌‌‌عنوان ‌‌‌‌مثال، تحقیقات و بررسی‌‌‌‌های انجام شده روی الگوریتم ProPublica که یک نسخه بازسازی شده COMPAS محسوب می‌‌‌‌شود نشان داده که این الگوریتم به‌‌‌‌شدت دچار سوگیری است و تصمیم‌‌‌‌گیری‌‌‌‌های مغرضانه‌‌‌‌ای در مورد افراد فقیر یا رنگین‌‌‌‌پوست داشته است؛ آن هم به این دلیل که طراحان و برنامه‌‌‌‌ریزان این الگوریتم دارای رویکردهایی خاص در قبال افراد فقیر و رنگین‌‌‌‌پوست بوده‌‌‌‌اند. نقطه مقابل الگوریتم‌‌‌‌هایی مانند ProPublica یکسری الگوریتم‌‌‌‌های شفاف و باز هستند که ویژگی اصلی‌‌‌‌شان این است که دارای طراحی و منطق شفاف و کریستالی هستند.

 به‌‌‌‌عنوان‌‌‌‌ مثال، الگوریتم CORELS یک ابزار یادگیری ماشین با شفافیت عملکردی بسیار بالایی است که تصمیم‌‌‌‌گیری‌‌‌‌هایش را بر اساس فرمول‌‌‌‌های مشخصی انجام می‌‌‌‌دهد.

 مثلا اگر از این الگوریتم بخواهیم در مورد اینکه آیا افراد بازداشت شده توسط پلیس طی دو سال آینده مرتکب جرمی خواهند شد و آیا صلاحیت آزادی موقت یا عفو را دارند یا نه اعلام نظر کند، این الگوریتم به این‌‌‌‌گونه عمل می‌‌‌‌کند:

اگر فرد بازداشت شده یک مرد با سن ۱۸ تا ۲۰ سال باشد و قبلا دو بار مرتکب جرم شده است احتمال تکرار جرم توسط او به مراتب بیشتر از مرد یا زنی است که دارای سن بین ۲۱ سال تا ۲۳ سال است و قبلا یک یا دو بار مرتکب جرم شده است.

در واقع آنچه که الگوریتم‌‌‌‌هایی مانند CORELS را از الگوریتم‌‌‌‌هایی مانند COMPAS متمایز و برتر می‌‌‌‌سازد این است که چیز سری و پنهانی در مورد نحوه عملکرد و فهرست معیارهای تشخیصی آنها وجود ندارد و به‌‌‌‌عنوان ‌‌‌‌مثال این الگوریتم براساس فاکتورهایی مانند سن و جنسیت و سوابق قضایی افراد در مورد آینده آنها اعلام نظر می‌‌‌‌کند. البته دامنه و گستره این فاکتورها را می‌‌‌‌توان به موارد متعدد دیگری غیر از جنسیت و سن و سوابق تعمیم داد. این همان چیزی است که به آن «شفافیت» می‌‌‌‌گویند. همین شفافیت عملکرد چنین الگوریتم‌‌‌‌هایی است که مانع از این می‌‌‌‌شود که آنها به شکلی تبعیض‌‌‌‌آمیز و جانب‌‌‌‌دارانه عمل کنند و قضاوت‌‌‌‌هایی مبتنی بر سوگیری صورت دهند.

با این ‌‌‌‌همه، باید دانست که شفافیت و شفاف عمل ‌‌‌‌کردن یک الگوریتم به‌‌‌‌تنهایی نمی‌‌‌‌تواند تضمین کند که تمام تصمیم‌‌‌‌گیری‌‌‌‌ها و اعلام نظرهای آن الگوریتم درست و بی‌‌‌‌نقص باشد. اگر ما بخواهیم از یک الگوریتم به‌‌‌‌عنوان دستیار و مشاوری امین و مطمئن برای قضاوت استفاده کنیم به چیزهای دیگری نیز نیاز داریم که سیاستگذاری‌‌‌‌های مبتنی بر پیش‌‌‌‌بینی یکی از مهم‌‌‌‌ترین آنهاست.

منبع: کتاب The age of AI: and our human future