اهمیت نظارت بر هوش مصنوعی آینده
البته راههایی برای فائق آمدن بر این ابهام و سردرگمی وجود دارد که توسعه برنامهها، وضع قوانین و مقررات و الزامی کردن دریافت یکسری تاییدیهها قبل از عملی کردن تصمیمها از جمله آنها هستند. به نظر میرسد شبیه همین اقدامات باید در مورد هوش مصنوعی نیز به کار گرفته شود. به عنوان مثال، دانشمندان میتوانند برای استفاده عملی و بهکارگیری هوش مصنوعی شرط و شروط بگذارند و فقط درصورتی که یک هوش مصنوعی توانست تستهای ویژهای را با موفقیت پشت سر بگذارد استفاده از آن مجاز خواهد بود. بنابراین طراحی و توسعه ابزارهای اعتبارسنجی و تایید هوش مصنوعی، مانیتورینگ و سنجش عملکرد ماشینهای هوش مصنوعی در آینده از اهمیت بسزایی برخوردار خواهد بود.
چنین ابزارهایی در عرصه ساخت اپلیکیشنها و وسایل خانگی و بسیاری دیگر از چیزهایی که ما انسانها در زندگی روزمره خود از آنها استفاده میکنیم وجود دارند و بهکارگیری آنها باعث میشود تا جلوی وقوع حوادث ناگوار ناشی از عملکرد ضعیف یا خطرناک اختراعات و محصولات جدید گرفته شود. به همین دلیل هم هست که چنین تستهایی قبل از عملیاتی شدن ماشینهای جدید هوش مصنوعی کاملا ضروری هستند. علاوه بر این باید به این نکته نیز توجه داشت که فاکتورهایی مانند میزان ریسکی بودن کارکردهای هوش مصنوعی و جامعه هدفی که هوش مصنوعی به دنبال خدمترسانی به آن است در تعیین میزان سختی و حساس بودن این تستها تاثیرگذار باشند. به عنوان مثال، اگر قرار است از هوش مصنوعی برای راندن خودروها یا کامیونهای خودران استفاده شود شدیدترین و سختگیرانهترین تستها و تاییدیهها باید برای مجاز اعلام کردن این نوع از هوش مصنوعی در نظر گرفته شود، چراکه خروجی این فرآیند چیزی است که با جان انسانها سروکار دارد؛ حال آنکه چنین سختگیریهایی در مورد هوش مصنوعی دیگری که قرار است در پلتفرمهای بازیهای کامپیوتری یا سرگرمی و رسانهها مورد استفاده قرار گیرد چندان ضرورت و حساسیتی ندارد. یکی از ترسها و نگرانیهایی که پیرامون آینده هوش مصنوعی مطرح میشود ناشی از این احتمال است که ماشینهای هوش مصنوعی آینده ممکن است به درجهای از پیشرفت و یادگیرندگی برسند که از کنترل انسانها خارج شوند و دست به نافرمانیهای خطرناکی بزنند.
نمونه مشهور چنین نافرمانیهایی چتبات Tay متعلق به شرکت مایکروسافت بود که در سال ۲۰۱۶ در معرض سخنان رکیک و حاوی نفرتپراکنی قرار گرفت و بهواسطه یادگیری این نوع گفتار از آن تقلید کرد و آنقدر در این زمینه جلو رفت که سازندگانش را مجبور کرد تا این برنامه هوش مصنوعی را برای همیشه تعطیل کنند. به همین دلیل اغلب ماشینهای هوش مصنوعی بهگونهای طراحی میشوند که فاز یادگیریشان از فاز عملیاتی آنها جداست، بهطوری که مدلهای یادگیری آنها و پارامترهای شبکههای عصبیشان پس از پایان فرآیند یادگیری در وضعیت ثابتی باقی میمانند و همین توقف در یادگیری این امکان را به انسان میدهد تا عملکرد و تواناییهای هوش مصنوعی را مورد سنجش و ارزیابی دقیق قرار دهد. به همین خاطر طراحان ماشینهای خودران مدعی هستند که هوش مصنوعی بهکاررفته در این ماشینها هیچ رفتار غیرعادی و غیرمنتظرهای غیرازآنچه برای آنها تعریف شده از خود نشان نخواهند داد. مثلا ماشین خودرانی که یاد گرفته در صورت مشاهده چراغ قرمز توقف کند، هیچگاه تصمیم نخواهد گرفت که شروع به حرکت کرده و چراغ قرمز را رد کند.
البته باید به این واقعیت نیز توجه داشت که این ثابت بودن سطح یادگیری هوش مصنوعی به آن معنا نیست که هیچگونه رفتار غیرمنتظرهای از جانب ماشینهای هوش مصنوعی سر نخواهد زد؛ بهویژه زمانی که با موقعیتهایی روبهرو میشوند که برایشان تعریف نشده و آنها نمیدانند که در برخورد با چنین وضعیتهایی چه واکنشی باید از خود نشان دهند.
بهطور کلی، هوش مصنوعی به سه شکل توسط کدهایش محدود میشود: اول اینکه کدهای داده شده به هوش مصنوعی باعث میشوند پارامترهایی شکل بگیرند که دامنه مجاز فعالیتهای هوش مصنوعی را مشخص میکنند و ماشینها نمیتوانند و حق ندارند خارج از آن دامنه اقدامی صورت دهند. به عنوان مثال، یک ماشین خودران اجازه دارد بهمنظور اجتناب از تصادف کردن با عابران پیاده یا سایر ماشینها و موانع اطرافش یا ترمز کند، یا تغییر مسیر دهد یا اینکه سرعتش را کم و زیاد کند. یا آلفازیرو بهگونهای طراحی شده که اگرچه استراتژیهای جدیدی را در بازی شطرنج به کار میگیرد، اما تمام قوانین و مقررات بازی را موبهمو رعایت میکند و حرکتی غیرقانونی در بازی شطرنج انجام نمیدهد، چراکه انجام چنین حرکتهایی اصلا برای آن تعریف نشده است. در حالت دوم، هوش مصنوعی توسط کارکردها و وظایفی که برایش تعریف شده محدود میشود و هدفش فقط بهینهسازی و ارائه بهترین عملکرد در همان چارچوب وظیفهای خاصی است که برایش مشخص شده است. سومین و مهمترین محدودیتی که برای هوش مصنوعی در نظر گرفته میشود این است که فقط میتواند آن ورودیهایی را پردازش کند که قرار است اقدام به تحلیل و تشخیص آنها کند. درنتیجه حتی اگر این احتمال وجود داشته باشد که هوش مصنوعی با دادهها و اطلاعات متفاوتی روبهرو شود، توان پردازش و فهم آنها را نخواهد داشت. مثلا ماشینی که برای ترجمه متون طراحی شده و آموزش دیده، نمیتواند از دادهای استفاده کند که ارتباطی با فرآیند ترجمه ندارد.
به هر حال، باید دانست که روزی فرا خواهد رسید که خود ماشینهای هوش مصنوعی میتوانند اقدام به نوشتن کدهایی برای خودشان کنند. تلاشهای اولیه برای ساخت چنین ماشینهایی مدتی است که شروع شده و مراحل نخستین خود را میگذراند؛ هرچند که حتی چنین ماشینهایی نیز همچنان هدفمحور هستند و این کارکردها و اهداف تعریف شده برای آنها هستند که عملکردشان را مشخص و محدود خواهند ساخت و باز هم آنها در چارچوب همان قوانین و قواعدی حرکت خواهند کرد که توسط ما انسانها برایشان تعریف خواهد شد.