صدها نمونه مثل اینها وجود دارد و استفاده از اتوماسیون الگوریتمی تصمیم‌گیری در مسیر صعودی قرار دارد. چرا؟ ابتدا باید گفت طبق «قانون مور» (که می‌گوید تعداد ترانزیستورهای یک تراشه با مساحت ثابت در هر ۱۸ ماه تقریبا دو برابر می‌شود) قدرت رایانشی هر روز ارزان‌‌قیمت‌تر می‌شود. دوم، ما در حال ایجاد الگوریتم‌هایی هستیم که می‌توانند مواد خام و داده‌های ساختاربندی‌ نشده را به اطلاعات قابل هضمی تبدیل کنند که بر همه چیز – از حوزه دیجیتال گرفته تا سلامت مالی – اثرگذارند. سوم، دسترسی ما به داده‌ها بیشتر شده و رو به افزایش است. هر جنبه‌ای از زندگی ما ردپایی دیجیتال را دنبال می‌کند که می‌توان از آن برای تشخیص بهتر رفتار انسانی بهره‌برداری و آینده را پیش‌بینی کرد.

فرصت‌های موجود

برخی افراد می‌گویند الگوریتم‌ها هیچ‌وقت نمی‌توانند با توانایی انسانی برای تصمیم‌گیری هماهنگ شوند، چون بیش از حد بر وظایف خاص متمرکز می‌شوند. اما آیا انسان هم کامل و بی‌نقص است؟ مطالعات متعدد نشان داده انسان‌ها می‌توانند تحت تاثیر احساسات خود قرار بگیرند، می‌توانند کند عمل کنند، می‌توانند خودخواه باشند و در تصمیم‌گیری‌های خود تبعیض قائل شوند.

سه محدودیت اصلی

این درست است که الگوریتم‌ها عاری از کاستی‌های انسانی مثل خسته شدن، در معرض اشتباه بودن یا غرور هستند، اما وقتی برای تصمیم‌گیری‌ها فقط بر الگوریتم‌ها متکی هستیم، با محدودیت‌هایی مواجه می‌شویم و مهم است بدانیم که این محدودیت‌ها کدامند.

۱) شفافیت: الگوریتم‌ها جعبه سیاه هستند، یعنی اگر ندانیم چه کاربردی دارند، خیلی سخت است که تشخیص دهیم برای هدف‌مان مناسب هستند یا نه.

۲) سوگیری: الگوریتم‌ها طوری تنظیم شده‌اند که بر اساس داده‌هایی که همواره نمونه‌ای از کل نیستند، توصیه‌‌هایی ارائه می‌کنند - سوگیری‌های سیستماتیک می‌توانند مورد توجه قرار نگیرند و این سوگیری‌ها در طول زمان بیشتر و بیشتر می‌شوند.

۳) دقت: ما الگوریتم‌ها را مصون از خطا می‌دانیم. اما در واقعیت، آنها طوری طراحی شده‌اند که به‌طور متوسط، عملکرد خوبی داشته باشند.

یک مثال از سیستم قضایی می‌تواند کمک کند این محدودیت‌ها را بهتر بررسی کنیم. اریک لومیس در فوریه ۲۰۱۳ به جرم رانندگی با ماشینی که از آن در یک تیراندازی استفاده شده بود و لومیس آن را به پلیس اطلاع نداده بود، در آمریکا دستگیر شد. قاضی دادگاه عالی ویسکانزین او را به ۶ سال حبس محکوم کرد. بخشی از این فرآیند تصمیم‌گیری با الگوریتم COMPAS صورت گرفته بود. این الگوریتم اختصاصی برای محاسبه احتمال ارتکاب مجدد یک فرد به جرم مورد استفاده قرار می‌گیرد. COMPAS دسته‌بندی‌هایی مثل شخصیت مجرم، اعتیاد به مواد مخدر و انزوای اجتماعی را می‌سنجد. افراد در هر دسته‌بندی، از ۱ (پایین‌ترین ریسک) تا ۱۰ (بالاترین ریسک) رتبه‌بندی می‌شوند. لومیس قاضی را به خاطر به کار بردن COMPAS به چالش کشید، چون بر خلاف دیگر شواهدی که علیه او استفاده شده بود، وکیل او نمی‌توانست در این الگوریتم موشکافی کند. اولین محدودیت آشکار شد. اتکای قاضی بر این امتیاز، فاکتورهای در نظر گرفته شده و وزنی که در فرآیند تصمیم‌گیری به داده‌ها داده شده بود، همه مبنای محکومیت او قرار گرفتند.

محدودیت دوم، که می‌گوید الگوریتم‌ها فقط به اندازه داده‌هایی که برای آموزش دادن به آنها استفاده می‌شوند کاربرد دارند، مساله دیگری است. الگوریتم COMPAS از داده‌های جنایی استفاده می‌کند که اساسا مربوط به دستگیری هستند. داده‌های دستگیری مجرمان معمولا استناد می‌کنند به اینکه پلیس در زمان درست در جای درستی قرار گرفته باشد. اگر منطقه‌ای جرم‌خیز باشد، پلیس بیشتر در آن حضور دارد، بیشتر احتمال دستگیری هست و داده‌های بیشتری گزارش می‌شود. این اطلاعات اغلب برای پیش‌بینی جرایم آینده مورد استفاده قرار می‌گیرند. حالا مشکل کجاست؟ اتفاقی که در اینجا افتاده، «خودجاودانه‌سازی» است. اگر منطقه‌ای به پایبندی به قانون شهرت داشته باشد و جرمی در آن گزارش نشود چه اتفاقی می‌افتد؟ اگر پلیس به آن منطقه توجهی نکند چه؟ عدم حضور پلیس، یعنی عدم دستگیری و نبود داده‌ در مورد آن منطقه.

بررسی‌هایی که چند محقق انجام داده‌اند، نشان می‌دهد توصیه به یکدیگر بر اساس نظرات مصرف‌کنندگان نیز دچار این چرخه‌ خودجاودانه‌سازی است. به‌عنوان مثال، نظر مثبت یک مشتری در مورد هتلی در سایت TripAdvisor منجر به درخواست‌های بیشتر افراد دیگر برای استفاده از آن هتل می‌شود. مشتریان بیشتر، یعنی ابراز نظر بیشتر و شهرت اجتماعی بیشتر. به این صورت،‌ موفقیت یک هتل، می‌تواند عامل تقویت آینده آن باشد. اما اگر گزینه بهتری که کمتر شناخته شده وجود داشته باشد، چه می‌شود؟ یک هتل با شرایط بهتر که کمتر مورد توجه قرار گرفته، خیلی سخت می‌تواند برتری خود را اثبات کند.  چرخه‌های خودجاودانه‌سازی می‌توانند در الگوریتم‌ها، سوگیری ایجاد کنند. گاهی عامل سوگیری، یک اتفاق ساده‌تر است. تصور کنید می‌خواهید با استفاده از دوستانی که در فیس‌بوک دارید، به یک کامپیوتر آموزش تشخیص چهره بدهید.

کامپیوترها در داده‌هایی که به آنها داده می‌شود، الگوهایی می‌یابند؛ این همان یادگیری ماشینی است. مشکل اینجا است که چهره دوستان شما نماینده همه انسان‌های کره‌زمین نیست. شما ندانسته، با استفاده از اطلاعاتی که روی شبکه شخصی خودتان دارید، الگوریتمی ایجاد می‌کنید که فقط چهره افرادی را که نزدیک به دوستان شما است شناسایی می‌کند و از شناسایی چهره‌هایی که کاملا با آنها تفاوت دارند،‌ ناتوان است. همین اتفاق در مورد داده‌هایی که مربوط به گذشته هستند و حال و آینده را دربرنمی‌گیرند، رخ می‌دهد. به این صورت، سوگیری‌های انسانی ما بخشی از تکنولوژی می‌شود که ایجاد می‌کنیم. غول‌های عرصه تکنولوژی مثل گوگل، آموزش به افراد در مورد این سوگیری‌ها را شروع کرده‌اند، اما هنوز راه زیادی در پیش است.  در نهایت، حتی اگر داده‌هایی که برای آموزش یک الگوریتم استفاده می‌شوند، عاری از سوگیری‌های توصیف شده باشند، باز هم مشکلاتی در این الگوریتم‌ها وجود دارد. چرا؟ چون کاربران بیش از حد به توصیه‌های دیگران تکیه می‌کنند.

ابتدا باید گفت ما فراموش می‌کنیم که پیش‌بینی‌ها همیشه عالی و کامل نیستند. اگر به مثال COMPAS برگردیم، باید بگوییم یک بازرس به همراه یک شرکت غیرانتفاعی به نام ProPublica در تحقیقات خود دریافتند محکومانی که بدترین امتیاز ممکن را دریافت می‌کنند (۱۰ از ۱۰)، ۲۰ درصد احتمال ارتکاب مجدد جرم را دارند. برعکس، محکومانی که بهترین امتیاز را دریافت می‌کنند (۱ از ۱۰)، همچنان ۲۵ درصد احتمال ارتکاب مجدد جرم را دارند، بنابراین الگوریتم‌ها می‌توانند اشتباه کنند. دوم، الگوریتم‌ها به ناچار پیش‌بینی‌هایی انجام می‌دهند که علیه گروه‌هایی که با میانگین فاصله دارند، تبعیض قائل می‌شود. به‌عنوان مثال COMPAS افراد را بر اساس بیش از ۱۰۰ فاکتور مثل سوابق مجرم، جنسیت و سن رتبه‌بندی می‌کند و مساله نژاد را موردتوجه قرار نمی‌دهد. در واقع، وقتی الگوریتم موشکافی‌های ریاضی انجام می‌دهد، به‌نظر می‌رسد تبعیض نژادی را محاسبه نمی‌کند و کسی که با ریسک بالا رتبه‌بندی می‌شود، بدون توجه به نژادش، میزانی از احتمال ارتکاب مجدد جرم را دارد. اما وقتی موشکافی‌های بیشتری صورت می‌گیرد، نتایج بدون تعادلی به‌دست می‌آید، به‌طوری که درصد بالاتری از محکومان سیاه‌پوست که دوباره مرتکب جرم نمی‌شوند، در مقایسه با آمار میانگین، جزو افراد با ریسک بالای ارتکاب جرم دسته‌بندی شده‌اند.

در توضیح این موضوع باید گفت درست است که فاکتور نژاد در داده‌های مورد استفاده لحاظ نشده، اما فاکتورهایی که احتمال ارتکاب مجدد جرم را پیش‌بینی می‌کنند، تفاوت‌هایی بر اساس نژاد دارند. مثلا اگر رابطه مستقیمی بین جرم‌های قبلی و تمایل به ارتکاب جرم مجدد وجود داشته باشد و اگر محکومان سیاه‌پوست قبلا بیشتر جرائمی مرتکب شده‌ باشند، الگوریتمی که از این داده‌ها برای محاسبه ریسک استفاده می‌کند، محکومان سیاه‌پوست را نسبت به سفیدپوست‌ها با ریسک بالاتری رتبه‌بندی می‌کند. در این صورت، اگر دسته‌بندی افرادی که ریسک بالاتری دارند همیشه درست نباشد، درصد بیشتری از محکومان سیاه‌پوست که دوباره مرتکب جرم نمی‌شوند، جزو افرادی با ریسک بالا دسته‌بندی می‌شوند. این بر خلاف دقت پیش‌بینی الگوریتم‌ها است که باید عادلانه و بدون تبعیض نژادی کار کنند و البته از نظر ریاضی چنین چیزی اجتناب‌ناپذیر است.

چهار درس برای افراد (نه ماشین‌ها)

این درست است که الگوریتم‌ها می‌توانند نتایج سوگیری‌ شده‌ای به بار بیاورند که در صورت چک نشدن، این نتایج بیشتر و بیشتر می‌شوند اما به هر حال آنها کاری را انجام می‌دهند که برای آن طراحی شده‌اند. اگر خواهان عینیت و یکنواختی هستیم، بهتر است مسوولیت را روی دوش افرادی بگذاریم که می‌توانند طراحی، کارآیی و بازبینی الگوریتم‌ها را ارتقا دهند.

۱) از الگوریتم‌ها تنها به‌عنوان یک بخش از فرآیند تصمیم‌گیری استفاده کنید

استانیسلاو پتروف که در ماه مه گذشته از دنیا رفت، افسر درجه‌داری در نیروی پدافند هوایی اتحاد جماهیر شوروی سابق بود و برخی او را به‌عنوان مردی که توانست دنیا را نجات دهد می‌شناسند. در روز ۲۶ سپتامبر ۱۹۸۳، یک الگوریتم که از داده‌های ماهواره‌ای استفاده می‌کرد، به پتروف اطلاع داد که آمریکا پنج موشک بالستیک قاره‌پیما مجهز به تسلیحات هسته‌ای پرتاب کرده است. پتروف در مصاحبه‌ای گفته بود «آژیر به صدا درآمد، اما من چند ثانیه در جای خودم نشستم و به صفحه قرمز رنگ بزرگی که دکمه «پرتاب» روی آن بود نگاه می‌کردم.» احساس درونی او می‌گفت در آن زمان یک جای کار می‌لنگد و اگر قرار باشد جنگی هسته‌ای درگیرد، چرا فقط چند موشک شلیک شده است؟ او بر خلاف پروتکل رایج رفتار کرد و برای تلافی، دکمه پرتاب را فشار نداد. به نظر می‌رسید یک نقص کامپیوتری رخ داده باشد و پتروف با عدم اطلاع‌دهی به مقامات مافوق خود از یک جنگ هسته‌ای ویرانگر جلوگیری کرد. در واقع، او تصمیم گرفت بیشتر از اطلاعاتی که از یک کامپیوتر هوشمند دریافت می‌کند، بر قضاوت خودش متکی باشد. بنابراین وقتی ابزارهای تصمیم‌گیری که از الگوریتم استفاده می‌کنند را طراحی می‌کنیم، باید فرآیندهایی ایجاد کنیم که به افراد امکان می‌دهند همچنان از قضاوت‌ها و عقل خودشان استفاده کنند.

۲) به کاربران در مورد محدودیت‌های الگوریتم‌ها آموزش دهید

همان‌طور که مثال پتروف نشان می‌دهد، محاسبات الگوریتم‌ها تنها احتمال یک موضوع را نشان می‌دهند،‌ نه قطعیت را. پتروف به این موضوع پی برد ولی ممکن است بسیاری از کاربران دیگر مثل برنامه‌ریز‌ها، رهبران کسب‌وکار، سیاست‌گذاران و ... به آن پی نبرند. مطمئنا برای استفاده موثر و مسوولانه از الگوریتم‌ها، باید به افراد آموزش رسمی داده شود. همچنین توصیه‌هایی که در این آموزش‌ها داده می‌شود، باید به‌صورتی باشد که محدودیت‌‌ها را روشن و شفاف کند.

۳- برای حسابرسی الگوریتم‌ها آماده شوید

شرکت‌ها باید همان‌طور که کارهای حسابرسی در مورد آنها صورت می‌گیرد، تولید و کاربرد الگوریتم‌ها را پیاده کنند. در سال ۲۰۱۵، کمیسیون تجارت فدرال آمریکا که وظیفه حمایت از مصرف‌کنندگان را بر عهده دارد، «دفتر بازرسی و تحقیق تکنولوژی» را ایجاد کرد. کار این دفتر این است که اطمینان حاصل کند مصرف‌کنندگان از مزایای پیشرفت تکنولوژی بدون آسیب دیدن از ریسک اقدامات ناعادلانه، بهره می‌برند. این دفتر به‌عنوان یک منبع اطلاعاتی مطمئن، مطالعات مستقل انجام می‌دهد، فعالیت‌های بازاریابی جدید را ارزیابی می‌کند و مصرف‌کنندگان، کسب‌وکارها و سیاست‌گذاران را راهنمایی می‌کند.

۴- با بازبینی انسانی، از مصرف‌کنندگان و کارکنان حمایت کنید

در مه ۲۰۱۸ قانون جدیدی با عنوان «قانون عمومی حفاظت از داده‌ها» (GDPR) در اروپا تصویب می‌شود که بر اساس آن، شرکت‌ها ملزم می‌شوند داده‌های خود را بهتر اداره کنند. یکی از وظایف این قانون این است که از افرادی که به واسطه تصمیم‌گیری‌های اشتباه بدون دخالت انسانی آسیب دیده‌اند، حمایت شود. بنابراین، اگر مثلا شما به‌صورت آنلاین تقاضای وام کرده باشید و درخواست شما به‌صورت خودکار توسط یک الگوریتم رد شده باشد، حق بازبینی توسط یک نیروی انسانی برای شما ایجاد می‌شود.

چه زمانی باید روی الگوریتم‌ها حساب کنیم؟

یک حلقه بازخورد، مکانیزم قدرتمندی محسوب می‌شود که به افراد امکان می‌دهد طراحی الگوریتم‌های تصمیم‌گیری را به‌طور دائم ارتقا دهند. اتومبیل‌های خودران را در نظر بگیرید. وقتی یک اتومبیل خودران اشتباهی مرتکب شود و تصادفی ایجاد کند یا یکی از قوانین راهنمایی را نقض کند، طراحان الگوریتم آن، مطلع می‌شوند. با چنین اطلاعاتی، آنها می‌توانند توالی رویدادهایی را که منجر به اشتباه می‌شود موشکافی کنند و به بازطراحی الگوریتم بپردازند تا از تکرار همان اشتباه در آینده جلوگیری شود. البته در مورد صدور احکام قضایی نمی‌توان به این حلقه‌های بازخورد استناد کرد. بین اتخاذ یک تصمیم و پی بردن به درست بودن آن (اینکه احتمال ارتکاب مجدد وجود دارد یا نه)، فاصله زمانی زیادی وجود دارد. پس چه زمانی می‌توانیم روی الگوریتم‌ها حساب باز کنیم؟ وقتی بتوان اشتباه‌ها را دقیقا تشخیص داد و بازخوردهای قابل استناد، سریع و قابل پیگیری دریافت کرد. باید در نظر داشت از الگوریتم‌ها به‌عنوان یک بخش از فرآیند تصمیم‌گیری استفاده کرد، محدودیت‌های آن را تشخیص داد و آن را برای بازبینی‌های انسانی آماده کرد.

منبع: London Business School