وقتی پای هوش مصنوعی به موضوع عدالت باز میشود
اگر به دههها و سدههای گذشته نگاه کنیم میبینیم که قضاوتها و تصمیمگیریهای قضایی در مورد برخی افراد بهخصوص افراد فقیر و رنگینپوست و اقلیتهای قومی و مذهبی با بیعدالتی و خطای انسانی همراه بوده و در سالهای اخیر تقاضای زیادی برای ورود هوش مصنوعی و ماشینها و نرمافزارها به موضوع قضاوت مطرح شده است.
از نظر تئوریک، الگوریتمها و ماشینها این قابلیت را دارند که به بهبود و تقویت تصمیمگیریهای قضات کمک کنند. این ابزارها به این دلیل که کاملا بیطرف و بدون سوگیری خاصی عمل میکنند و دچار پیشقضاوت و خصومت فردی و اجتماعی با فرد یا گروه خاصی نیستند، از این توانایی برخوردارند که قضاوتهایی کاملا بیطرفانه و منصفانه داشته باشند.
علاوه بر این، هوش مصنوعی و الگوریتمها میتوانند در مدت بسیار کوتاهی و با سرعتی بسیار بیشتر از انسانها به پروندههای قضایی رسیدگی کنند و بهگونهای بینقص و سریع عمل کنند که پس از مدتی ضمن به صفر رساندن پروندههای قضایی بلاتکلیف و از قبل بهجامانده، تمام قضات و وکلا را به بازنشستگی زودتر از موعد. و در نتیجه شغلی به نام قضاوت و وکالت را به بایگانی تاریخ بفرستند.
هر ساله بیش از ۱۰ میلیون نفر توسط پلیس آمریکا بازداشت میشوند. برخی از آنها به صلاحدید قاضی و پلیس و تا زمان برگزاری جلسه دادگاه بهصورت موقت آزاد میشوند و برخی دیگر مجبورند تا آن زمان همچنان در بازداشت پلیس باقی بمانند.
با این همه، بارها دیده شده بسیاری از افرادی که آزادی موقتشان با نظر قاضی و پلیس بلامانع اعلام شده بود، پس از آزادی یا فرار کردهاند یا مرتکب جرمهای خطرناکی شدهاند. این امر نشان میدهد قضاوت و تصمیمگیری انسانها در این خصوص اشتباه بوده است.
به همین دلیل هم هست که طی چند سال اخیر تمایل پلیس و سیستم قضایی آمریکا به استفاده از هوش مصنوعی و الگوریتمهایی مانند COMPAS برای تصمیمگیری در مورد آزادی موقت افراد بازداشت شده یا نگه داشتن آنها در بازداشتگاه تا زمان برگزاری دادگاه به میزان چشمگیری افزایش داشته است.
اما سوالی که ذهن خیلیها را درگیر خود کرده این است که چه تضمینی وجود دارد الگوریتمها و ماشینها بتوانند بدون خطا و در هر شرایطی بهترین تصمیم ممکن را در مورد آزادی موقت متهمان و بهطورکلی در پروندههای قضایی اتخاذ کنند؟
آیا احتمال اشتباه کردن هوش مصنوعی و زندانی شدن یا حتی اعدام افراد بیگناه وجود ندارد؟ آیا الگوریتمها واقعا میتوانند آینده را بهتر از قضات پیشبینی کنند؟
«اصل دنیای ثابت» به ما میگوید که چون ابهامات و پیچیدگیها در مورد پروندههای قضایی و دلایل پشت پرده وقوع جرائم زیاد است هوش مصنوعی و الگوریتمها نمیتوانند عملکردی بینقص و عالی از خود ارائه دهند و احتمال اشتباهات مهلک و نابخشودنی در این میان وجود دارد. واقعیت این است که قضات و کارشناسان امور حقوقی و جرائم در شرایطی مملو از ابهام و سردرگمی فعالیت میکنند و در چنین موقعیتهایی احتمال موفقیت قطعی الگوریتمها تا حد زیادی پایین خواهد بود، چرا که الگوریتمها و ماشینها فقط زمانی میتوانند بینقص و عالی کار کنند که همه چیز شفاف و مشخص باشد و خبری از ابهام و عوامل پنهان و انتزاعی در میان نباشد.
عدالت شفاف
به عقیده بسیاری از کارشناسان و صاحبنظران، مهمترین عاملی که میتواند موفقیت و دقت الگوریتمهایی مانند COMPAS را تضمین کند «شفافیت» است. در واقع بدون وجود شفافیت در مورد عملکرد الگوریتمهای مخصوص امر قضاوت، بهسختی میتوان ادعا کرد که چنین الگوریتمهایی کاملا بیطرف و منصف باشند و احتمال اشتباه یا سوگیری آنها در حد صفر باشد.
بهعنوان مثال، تحقیقات و بررسیهای انجام شده روی الگوریتم ProPublica که یک نسخه بازسازی شده COMPAS محسوب میشود نشان داده که این الگوریتم بهشدت دچار سوگیری است و تصمیمگیریهای مغرضانهای در مورد افراد فقیر یا رنگینپوست داشته است؛ آن هم به این دلیل که طراحان و برنامهریزان این الگوریتم دارای رویکردهایی خاص در قبال افراد فقیر و رنگینپوست بودهاند. نقطه مقابل الگوریتمهایی مانند ProPublica یکسری الگوریتمهای شفاف و باز هستند که ویژگی اصلیشان این است که دارای طراحی و منطق شفاف و کریستالی هستند.
بهعنوان مثال، الگوریتم CORELS یک ابزار یادگیری ماشین با شفافیت عملکردی بسیار بالایی است که تصمیمگیریهایش را بر اساس فرمولهای مشخصی انجام میدهد.
مثلا اگر از این الگوریتم بخواهیم در مورد اینکه آیا افراد بازداشت شده توسط پلیس طی دو سال آینده مرتکب جرمی خواهند شد و آیا صلاحیت آزادی موقت یا عفو را دارند یا نه اعلام نظر کند، این الگوریتم به اینگونه عمل میکند:
اگر فرد بازداشت شده یک مرد با سن ۱۸ تا ۲۰ سال باشد و قبلا دو بار مرتکب جرم شده است احتمال تکرار جرم توسط او به مراتب بیشتر از مرد یا زنی است که دارای سن بین ۲۱ سال تا ۲۳ سال است و قبلا یک یا دو بار مرتکب جرم شده است.
در واقع آنچه که الگوریتمهایی مانند CORELS را از الگوریتمهایی مانند COMPAS متمایز و برتر میسازد این است که چیز سری و پنهانی در مورد نحوه عملکرد و فهرست معیارهای تشخیصی آنها وجود ندارد و بهعنوان مثال این الگوریتم براساس فاکتورهایی مانند سن و جنسیت و سوابق قضایی افراد در مورد آینده آنها اعلام نظر میکند. البته دامنه و گستره این فاکتورها را میتوان به موارد متعدد دیگری غیر از جنسیت و سن و سوابق تعمیم داد. این همان چیزی است که به آن «شفافیت» میگویند. همین شفافیت عملکرد چنین الگوریتمهایی است که مانع از این میشود که آنها به شکلی تبعیضآمیز و جانبدارانه عمل کنند و قضاوتهایی مبتنی بر سوگیری صورت دهند.
با این همه، باید دانست که شفافیت و شفاف عمل کردن یک الگوریتم بهتنهایی نمیتواند تضمین کند که تمام تصمیمگیریها و اعلام نظرهای آن الگوریتم درست و بینقص باشد. اگر ما بخواهیم از یک الگوریتم بهعنوان دستیار و مشاوری امین و مطمئن برای قضاوت استفاده کنیم به چیزهای دیگری نیز نیاز داریم که سیاستگذاریهای مبتنی بر پیشبینی یکی از مهمترین آنهاست.
منبع: کتاب The age of AI: and our human future