بررسی تاثیر نتایج تصمیمات روباتها بر سرنوشت انسان
آیا هوش مصنوعی قابل اعتماد است؟
فرض کنید که برای دریافت بخشی از هزینههای درمان بیماری خود، به شرکت بیمه مراجعه کردهاید اما شرکت بیمه با پرداخت وجه به شما موافقت نمیکند، تنها به این دلیل که الگوریتمهای ارزیابی شرکت، به این نتیجه رسیدهاند که شما مستحق دریافت کمک مالی نیستید یا وقتی که درخواست وام شما از طرف بانک رد میشود و بانک شما نمیتواند بگوید دقیقا چرا با پرداخت وام موافقت نشده است. اینها نمونههای سادهای از سناریوهای تحمیلی است که با رشد و توسعه هوش مصنوعی، فعالان حوزه تکنولوژی درباره آن ابراز نگرانی کردهاند. بخشهای مختلفی از دنیای تکنولوژی مانند تحقیقات پزشکی، خودروهای خودران، بخشهای نظامی و جنایی در حال تحقیق روی هوش مصنوعی هستند تا هر بخش به فراخور سیستم کاری خود، بتواند بفهمد چگونه میتوان هوش مصنوعی را با حفظ مسائل امنیتی، به بهترین شکل مورد استفاده قرار داد. طبق گزارش اخیر شرکت مشاوره consultancy PwC، پیشبینی میشود که هوش مصنوعی تا سال ۲۰۳۰ اقتصاد جهانی را به میزان ۷/ ۱۵ تریلیون دلار افزایش خواهد داد. اما به چه قیمتی؟ این برنامههای الگوریتمیک، آنقدر در حال پیچیده شدن هستند که حتی خالقان آنها نیز گاهی اوقات نمیتوانند بفهمند این دستاورد با ارزش انسانی، تصمیمات خود را بر چه مبنایی میگیرد!
شبکههای عصبی هوشمند نوظهور که به آنها neural networks میگوییم و طوری طراحی شدهاند تا رفتارهای مغز انسان را تقلید کنند، شامل تعدادی پردازنده متصل به یکدیگر هستند که میتوانند حجم عظیمی از داده را تحلیل کنند. neural networks با استفاده از تکنولوژی یادگیری ماشینی، میلیونها الگوی متغیر را تحلیل کرده و یافتههای خود را به مرحله عمل میرسانند. این دستاورد میتواند تغییرات بزرگی در دنیای دیجیتال ایجاد کند مانند پیشبینیهای دقیق آب و هوا یا تشخیص دقیق بیماریهایی مانند سرطان. Rhodri Davies، رئیس بخش سیاست و برنامهریزی موسسه خیریه Charities Aid Foundation میگوید: «اگر این سیستمها برای کارهایی مانند رایگیری یا دسترسی به سرویسهای عمومی مورد استفاده قرار گیرند، علاوه بر انقلابی که همین حالا نیز شروع شده، مشکلات مختص به خود را نیز همراه
دارند.» David Stern، مدیر تحقیقات شرکت تکنولوژیک G-Research، شرکتی که با کمک تکنولوژی یادگیری ماشینی، در زمینه پیشبینی قیمت بازارهای مالی فعالیت دارد، معتقد است یکی از پرکاربردترین روشهای برنامهریزی سیستمهای هوش مصنوعی، روش دادهکاوی جعبه سیاه نام دارد: «این شیوه یکی از محبوبترین شیوههای برنامهریزی در زمینه سیستمهای عصبی هوشمند (neural networks) است. در این روش الگوهای قرارگیری میلیونها پارامتر که به شیوههای پیچیدهای با یکدیگر در ارتباط هستند، مشخص میشود. توضیح روابط این پارامترها حتی برای مهندسان و محققان بسیار مشکل است.» یکی دیگر از روشها «deep reinforcement learning» (یادگیری عمیق تقویت شده) است که در آن، طراح بهصورت اختصاصی هدفهای رفتاری یک سیستم را مشخص میکند و سیستم بهصورت اتوماتیک با کمک تکنولوژی یادگیری ماشینی و تعامل با محیط اطراف، در راستای تحقق هدف عمل میکند. Stern میگوید در روش دوم نیز نحوه ادراک دلیل رفتار سیستم از سوی انسانها بسیار مشکل است.
محققان صنعت تکنولوژی تلاش زیادی میکنند تا راههای جدید برای درک الگوریتمهای دستساخته خود پیدا کنند و آنها را تحت کنترل خود بگیرند. Adrian Weller مدیر برنامهنویسی بخش هوش مصنوعی در موسسه The Alan Turing Institute معتقد است شیوه فهمیدن اینکه یک سیستم هوش مصنوعی چگونه تصمیمگیری میکند، بستگی به میزان حیاتی بودن تصمیم مورد نظر دارد: «اگر میتوانستیم مطمئن شویم که یک سیستم به درستی عمل میکند و در تصمیمهای خود تبعیض آشکار اعمال نمیکند، حقیقتا دلیلی ندارد که بخواهیم به دنبال دلیل تصمیمات گرفتهشده برویم.»
مثلا در مورد تکنولوژی خودروهای خودران یا تشخیصهای پزشکی، داشتن ماشینی که بتواند عمدتا درست و طبق برنامه عمل کند و جان انسانها را نجات دهد، مهمتر از فهمیدن نحوه عملکرد این سیستمهاست. Weller میگوید: «برای تشخیص پزشکی، اگر سیستمی بهصورت متوسط حتی در ۹۵ درصد مواقع تشخیص درست داشته باشد، حقیقتا فرقی نمیکند که چرا و چگونه این نتیجه را اعلام کرده است. مهم این است که جان یک انسان نجات داده شده است.» اما در شرایط دیگر، مانند وقتی که هوش مصنوعی در دنیای اثبات جرم خلافکاران مورد استفاده قرار میگیرد و باید ثابت کند که شخصی جرمی مرتکب شده، ما حتما باید بفهمیم که این تصمیم چرا و بر چه مبنایی گرفته شده است.
Weller عنوان میکند: «مثلا الگوریتمهای طراحی شده در حوزه قضایی، اعلام میکند که شخصی باید برای ۶ سال به زندان برود، دلیل آن باید به وضوح مشخص باشد و در صورت احتمال وقوع اشتباه، تصحیح شود. از نظر من سیستم عملکرد الگوریتمهای مورد استفاده در حوزههای مختلف باید هدف مشخصی داشته باشند و روشن باشد این الگوریتمها برای انجام چه کاری برنامهریزی و طرحریزی شدهاند. این مساله در مورد شغلهایی که زمانی اختصاصی انسانها بوده، از حساسیت بیشتری برخوردار است. با اعمال مسائل امنیتی و شفافسازی میتوان ریسکهای این صنعت نوین پرخطر را کمتر کرد.» Adrian Weller معتقد است اگر سیستمهای هوشمند به درستی عمل کنند، نیازی نیست همیشه دلیل رفتار آنها را بفهمیم.
مساله شفافسازی اهداف، به تصویب قوانین جدیدی به نام European Union’s GDPR از سوی اتحادیه اروپا منجر شده است اما سوالی که اینجا مطرح میشود این است که آیا ما انسانها از اینکه برخی از تصمیمگیریهای اساسی خود را روی دوش دوستهای ماشینی هوشمند خود بیندازیم و حتی دلیل تصمیمگیریهای آنها را نفهمیم خوشحال خواهیم بود؟ یا اینکه این دستاورد به مرور آزادی انسانها را کمتر کرده و مارا به بردههایی برای اتوماسیون هوشمند دستساخته خود بدل خواهد کرد؟ David Stern معتقد است: «من مطمئنم تا زمانی که با آگاهی و احتیاط جلو میرویم و اصول امنیتی را رعایت میکنیم، هوش مصنوعی قطعا برای ما مشکلی ایجاد نخواهد کرد.» اگر میتوان به قضاوت هوش مصنوعی اعتماد کرد، پس نپرسید چرا.
ارسال نظر