درسها و محدودیتهای الگوریتمها برای مدیران
ابزار مدیریتی که دنیا را تغییر خواهد داد
صدها نمونه مثل اینها وجود دارد و استفاده از اتوماسیون الگوریتمی تصمیمگیری در مسیر صعودی قرار دارد. چرا؟ ابتدا باید گفت طبق «قانون مور» (که میگوید تعداد ترانزیستورهای یک تراشه با مساحت ثابت در هر ۱۸ ماه تقریبا دو برابر میشود) قدرت رایانشی هر روز ارزانقیمتتر میشود. دوم، ما در حال ایجاد الگوریتمهایی هستیم که میتوانند مواد خام و دادههای ساختاربندی نشده را به اطلاعات قابل هضمی تبدیل کنند که بر همه چیز – از حوزه دیجیتال گرفته تا سلامت مالی – اثرگذارند. سوم، دسترسی ما به دادهها بیشتر شده و رو به افزایش است. هر جنبهای از زندگی ما ردپایی دیجیتال را دنبال میکند که میتوان از آن برای تشخیص بهتر رفتار انسانی بهرهبرداری و آینده را پیشبینی کرد.
فرصتهای موجود
برخی افراد میگویند الگوریتمها هیچوقت نمیتوانند با توانایی انسانی برای تصمیمگیری هماهنگ شوند، چون بیش از حد بر وظایف خاص متمرکز میشوند. اما آیا انسان هم کامل و بینقص است؟ مطالعات متعدد نشان داده انسانها میتوانند تحت تاثیر احساسات خود قرار بگیرند، میتوانند کند عمل کنند، میتوانند خودخواه باشند و در تصمیمگیریهای خود تبعیض قائل شوند.
سه محدودیت اصلی
این درست است که الگوریتمها عاری از کاستیهای انسانی مثل خسته شدن، در معرض اشتباه بودن یا غرور هستند، اما وقتی برای تصمیمگیریها فقط بر الگوریتمها متکی هستیم، با محدودیتهایی مواجه میشویم و مهم است بدانیم که این محدودیتها کدامند.
۱) شفافیت: الگوریتمها جعبه سیاه هستند، یعنی اگر ندانیم چه کاربردی دارند، خیلی سخت است که تشخیص دهیم برای هدفمان مناسب هستند یا نه.
۲) سوگیری: الگوریتمها طوری تنظیم شدهاند که بر اساس دادههایی که همواره نمونهای از کل نیستند، توصیههایی ارائه میکنند - سوگیریهای سیستماتیک میتوانند مورد توجه قرار نگیرند و این سوگیریها در طول زمان بیشتر و بیشتر میشوند.
۳) دقت: ما الگوریتمها را مصون از خطا میدانیم. اما در واقعیت، آنها طوری طراحی شدهاند که بهطور متوسط، عملکرد خوبی داشته باشند.
یک مثال از سیستم قضایی میتواند کمک کند این محدودیتها را بهتر بررسی کنیم. اریک لومیس در فوریه ۲۰۱۳ به جرم رانندگی با ماشینی که از آن در یک تیراندازی استفاده شده بود و لومیس آن را به پلیس اطلاع نداده بود، در آمریکا دستگیر شد. قاضی دادگاه عالی ویسکانزین او را به ۶ سال حبس محکوم کرد. بخشی از این فرآیند تصمیمگیری با الگوریتم COMPAS صورت گرفته بود. این الگوریتم اختصاصی برای محاسبه احتمال ارتکاب مجدد یک فرد به جرم مورد استفاده قرار میگیرد. COMPAS دستهبندیهایی مثل شخصیت مجرم، اعتیاد به مواد مخدر و انزوای اجتماعی را میسنجد. افراد در هر دستهبندی، از ۱ (پایینترین ریسک) تا ۱۰ (بالاترین ریسک) رتبهبندی میشوند. لومیس قاضی را به خاطر به کار بردن COMPAS به چالش کشید، چون بر خلاف دیگر شواهدی که علیه او استفاده شده بود، وکیل او نمیتوانست در این الگوریتم موشکافی کند. اولین محدودیت آشکار شد. اتکای قاضی بر این امتیاز، فاکتورهای در نظر گرفته شده و وزنی که در فرآیند تصمیمگیری به دادهها داده شده بود، همه مبنای محکومیت او قرار گرفتند.
محدودیت دوم، که میگوید الگوریتمها فقط به اندازه دادههایی که برای آموزش دادن به آنها استفاده میشوند کاربرد دارند، مساله دیگری است. الگوریتم COMPAS از دادههای جنایی استفاده میکند که اساسا مربوط به دستگیری هستند. دادههای دستگیری مجرمان معمولا استناد میکنند به اینکه پلیس در زمان درست در جای درستی قرار گرفته باشد. اگر منطقهای جرمخیز باشد، پلیس بیشتر در آن حضور دارد، بیشتر احتمال دستگیری هست و دادههای بیشتری گزارش میشود. این اطلاعات اغلب برای پیشبینی جرایم آینده مورد استفاده قرار میگیرند. حالا مشکل کجاست؟ اتفاقی که در اینجا افتاده، «خودجاودانهسازی» است. اگر منطقهای به پایبندی به قانون شهرت داشته باشد و جرمی در آن گزارش نشود چه اتفاقی میافتد؟ اگر پلیس به آن منطقه توجهی نکند چه؟ عدم حضور پلیس، یعنی عدم دستگیری و نبود داده در مورد آن منطقه.
بررسیهایی که چند محقق انجام دادهاند، نشان میدهد توصیه به یکدیگر بر اساس نظرات مصرفکنندگان نیز دچار این چرخه خودجاودانهسازی است. بهعنوان مثال، نظر مثبت یک مشتری در مورد هتلی در سایت TripAdvisor منجر به درخواستهای بیشتر افراد دیگر برای استفاده از آن هتل میشود. مشتریان بیشتر، یعنی ابراز نظر بیشتر و شهرت اجتماعی بیشتر. به این صورت، موفقیت یک هتل، میتواند عامل تقویت آینده آن باشد. اما اگر گزینه بهتری که کمتر شناخته شده وجود داشته باشد، چه میشود؟ یک هتل با شرایط بهتر که کمتر مورد توجه قرار گرفته، خیلی سخت میتواند برتری خود را اثبات کند. چرخههای خودجاودانهسازی میتوانند در الگوریتمها، سوگیری ایجاد کنند. گاهی عامل سوگیری، یک اتفاق سادهتر است. تصور کنید میخواهید با استفاده از دوستانی که در فیسبوک دارید، به یک کامپیوتر آموزش تشخیص چهره بدهید.
کامپیوترها در دادههایی که به آنها داده میشود، الگوهایی مییابند؛ این همان یادگیری ماشینی است. مشکل اینجا است که چهره دوستان شما نماینده همه انسانهای کرهزمین نیست. شما ندانسته، با استفاده از اطلاعاتی که روی شبکه شخصی خودتان دارید، الگوریتمی ایجاد میکنید که فقط چهره افرادی را که نزدیک به دوستان شما است شناسایی میکند و از شناسایی چهرههایی که کاملا با آنها تفاوت دارند، ناتوان است. همین اتفاق در مورد دادههایی که مربوط به گذشته هستند و حال و آینده را دربرنمیگیرند، رخ میدهد. به این صورت، سوگیریهای انسانی ما بخشی از تکنولوژی میشود که ایجاد میکنیم. غولهای عرصه تکنولوژی مثل گوگل، آموزش به افراد در مورد این سوگیریها را شروع کردهاند، اما هنوز راه زیادی در پیش است. در نهایت، حتی اگر دادههایی که برای آموزش یک الگوریتم استفاده میشوند، عاری از سوگیریهای توصیف شده باشند، باز هم مشکلاتی در این الگوریتمها وجود دارد. چرا؟ چون کاربران بیش از حد به توصیههای دیگران تکیه میکنند.
ابتدا باید گفت ما فراموش میکنیم که پیشبینیها همیشه عالی و کامل نیستند. اگر به مثال COMPAS برگردیم، باید بگوییم یک بازرس به همراه یک شرکت غیرانتفاعی به نام ProPublica در تحقیقات خود دریافتند محکومانی که بدترین امتیاز ممکن را دریافت میکنند (۱۰ از ۱۰)، ۲۰ درصد احتمال ارتکاب مجدد جرم را دارند. برعکس، محکومانی که بهترین امتیاز را دریافت میکنند (۱ از ۱۰)، همچنان ۲۵ درصد احتمال ارتکاب مجدد جرم را دارند، بنابراین الگوریتمها میتوانند اشتباه کنند. دوم، الگوریتمها به ناچار پیشبینیهایی انجام میدهند که علیه گروههایی که با میانگین فاصله دارند، تبعیض قائل میشود. بهعنوان مثال COMPAS افراد را بر اساس بیش از ۱۰۰ فاکتور مثل سوابق مجرم، جنسیت و سن رتبهبندی میکند و مساله نژاد را موردتوجه قرار نمیدهد. در واقع، وقتی الگوریتم موشکافیهای ریاضی انجام میدهد، بهنظر میرسد تبعیض نژادی را محاسبه نمیکند و کسی که با ریسک بالا رتبهبندی میشود، بدون توجه به نژادش، میزانی از احتمال ارتکاب مجدد جرم را دارد. اما وقتی موشکافیهای بیشتری صورت میگیرد، نتایج بدون تعادلی بهدست میآید، بهطوری که درصد بالاتری از محکومان سیاهپوست که دوباره مرتکب جرم نمیشوند، در مقایسه با آمار میانگین، جزو افراد با ریسک بالای ارتکاب جرم دستهبندی شدهاند.
در توضیح این موضوع باید گفت درست است که فاکتور نژاد در دادههای مورد استفاده لحاظ نشده، اما فاکتورهایی که احتمال ارتکاب مجدد جرم را پیشبینی میکنند، تفاوتهایی بر اساس نژاد دارند. مثلا اگر رابطه مستقیمی بین جرمهای قبلی و تمایل به ارتکاب جرم مجدد وجود داشته باشد و اگر محکومان سیاهپوست قبلا بیشتر جرائمی مرتکب شده باشند، الگوریتمی که از این دادهها برای محاسبه ریسک استفاده میکند، محکومان سیاهپوست را نسبت به سفیدپوستها با ریسک بالاتری رتبهبندی میکند. در این صورت، اگر دستهبندی افرادی که ریسک بالاتری دارند همیشه درست نباشد، درصد بیشتری از محکومان سیاهپوست که دوباره مرتکب جرم نمیشوند، جزو افرادی با ریسک بالا دستهبندی میشوند. این بر خلاف دقت پیشبینی الگوریتمها است که باید عادلانه و بدون تبعیض نژادی کار کنند و البته از نظر ریاضی چنین چیزی اجتنابناپذیر است.
چهار درس برای افراد (نه ماشینها)
این درست است که الگوریتمها میتوانند نتایج سوگیری شدهای به بار بیاورند که در صورت چک نشدن، این نتایج بیشتر و بیشتر میشوند اما به هر حال آنها کاری را انجام میدهند که برای آن طراحی شدهاند. اگر خواهان عینیت و یکنواختی هستیم، بهتر است مسوولیت را روی دوش افرادی بگذاریم که میتوانند طراحی، کارآیی و بازبینی الگوریتمها را ارتقا دهند.
۱) از الگوریتمها تنها بهعنوان یک بخش از فرآیند تصمیمگیری استفاده کنید
استانیسلاو پتروف که در ماه مه گذشته از دنیا رفت، افسر درجهداری در نیروی پدافند هوایی اتحاد جماهیر شوروی سابق بود و برخی او را بهعنوان مردی که توانست دنیا را نجات دهد میشناسند. در روز ۲۶ سپتامبر ۱۹۸۳، یک الگوریتم که از دادههای ماهوارهای استفاده میکرد، به پتروف اطلاع داد که آمریکا پنج موشک بالستیک قارهپیما مجهز به تسلیحات هستهای پرتاب کرده است. پتروف در مصاحبهای گفته بود «آژیر به صدا درآمد، اما من چند ثانیه در جای خودم نشستم و به صفحه قرمز رنگ بزرگی که دکمه «پرتاب» روی آن بود نگاه میکردم.» احساس درونی او میگفت در آن زمان یک جای کار میلنگد و اگر قرار باشد جنگی هستهای درگیرد، چرا فقط چند موشک شلیک شده است؟ او بر خلاف پروتکل رایج رفتار کرد و برای تلافی، دکمه پرتاب را فشار نداد. به نظر میرسید یک نقص کامپیوتری رخ داده باشد و پتروف با عدم اطلاعدهی به مقامات مافوق خود از یک جنگ هستهای ویرانگر جلوگیری کرد. در واقع، او تصمیم گرفت بیشتر از اطلاعاتی که از یک کامپیوتر هوشمند دریافت میکند، بر قضاوت خودش متکی باشد. بنابراین وقتی ابزارهای تصمیمگیری که از الگوریتم استفاده میکنند را طراحی میکنیم، باید فرآیندهایی ایجاد کنیم که به افراد امکان میدهند همچنان از قضاوتها و عقل خودشان استفاده کنند.
۲) به کاربران در مورد محدودیتهای الگوریتمها آموزش دهید
همانطور که مثال پتروف نشان میدهد، محاسبات الگوریتمها تنها احتمال یک موضوع را نشان میدهند، نه قطعیت را. پتروف به این موضوع پی برد ولی ممکن است بسیاری از کاربران دیگر مثل برنامهریزها، رهبران کسبوکار، سیاستگذاران و ... به آن پی نبرند. مطمئنا برای استفاده موثر و مسوولانه از الگوریتمها، باید به افراد آموزش رسمی داده شود. همچنین توصیههایی که در این آموزشها داده میشود، باید بهصورتی باشد که محدودیتها را روشن و شفاف کند.
۳- برای حسابرسی الگوریتمها آماده شوید
شرکتها باید همانطور که کارهای حسابرسی در مورد آنها صورت میگیرد، تولید و کاربرد الگوریتمها را پیاده کنند. در سال ۲۰۱۵، کمیسیون تجارت فدرال آمریکا که وظیفه حمایت از مصرفکنندگان را بر عهده دارد، «دفتر بازرسی و تحقیق تکنولوژی» را ایجاد کرد. کار این دفتر این است که اطمینان حاصل کند مصرفکنندگان از مزایای پیشرفت تکنولوژی بدون آسیب دیدن از ریسک اقدامات ناعادلانه، بهره میبرند. این دفتر بهعنوان یک منبع اطلاعاتی مطمئن، مطالعات مستقل انجام میدهد، فعالیتهای بازاریابی جدید را ارزیابی میکند و مصرفکنندگان، کسبوکارها و سیاستگذاران را راهنمایی میکند.
۴- با بازبینی انسانی، از مصرفکنندگان و کارکنان حمایت کنید
در مه ۲۰۱۸ قانون جدیدی با عنوان «قانون عمومی حفاظت از دادهها» (GDPR) در اروپا تصویب میشود که بر اساس آن، شرکتها ملزم میشوند دادههای خود را بهتر اداره کنند. یکی از وظایف این قانون این است که از افرادی که به واسطه تصمیمگیریهای اشتباه بدون دخالت انسانی آسیب دیدهاند، حمایت شود. بنابراین، اگر مثلا شما بهصورت آنلاین تقاضای وام کرده باشید و درخواست شما بهصورت خودکار توسط یک الگوریتم رد شده باشد، حق بازبینی توسط یک نیروی انسانی برای شما ایجاد میشود.
چه زمانی باید روی الگوریتمها حساب کنیم؟
یک حلقه بازخورد، مکانیزم قدرتمندی محسوب میشود که به افراد امکان میدهد طراحی الگوریتمهای تصمیمگیری را بهطور دائم ارتقا دهند. اتومبیلهای خودران را در نظر بگیرید. وقتی یک اتومبیل خودران اشتباهی مرتکب شود و تصادفی ایجاد کند یا یکی از قوانین راهنمایی را نقض کند، طراحان الگوریتم آن، مطلع میشوند. با چنین اطلاعاتی، آنها میتوانند توالی رویدادهایی را که منجر به اشتباه میشود موشکافی کنند و به بازطراحی الگوریتم بپردازند تا از تکرار همان اشتباه در آینده جلوگیری شود. البته در مورد صدور احکام قضایی نمیتوان به این حلقههای بازخورد استناد کرد. بین اتخاذ یک تصمیم و پی بردن به درست بودن آن (اینکه احتمال ارتکاب مجدد وجود دارد یا نه)، فاصله زمانی زیادی وجود دارد. پس چه زمانی میتوانیم روی الگوریتمها حساب باز کنیم؟ وقتی بتوان اشتباهها را دقیقا تشخیص داد و بازخوردهای قابل استناد، سریع و قابل پیگیری دریافت کرد. باید در نظر داشت از الگوریتمها بهعنوان یک بخش از فرآیند تصمیمگیری استفاده کرد، محدودیتهای آن را تشخیص داد و آن را برای بازبینیهای انسانی آماده کرد.
ارسال نظر