دستورالعمل اخلاقی پنتاگون برای هوش مصنوعی
مهر :
هیاتی در پنتاگون پیشنویس دستورالعمل اخلاقی را برای سیستمهای هوش مصنوعی منتشر کرده است. در این دستورالعمل اشاره شده سیستمهای مذکور باید عاری از هرگونه تعصب باشند. هرچند شرکتهای فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالشهایی روبهرو هستند؛ اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است. هیات نوآوری دفاعی آمریکا بهتازگی پیشنویس دستورالعمل اخلاقی هوش مصنوعی را در وزارت دفاع منتشر کرده که هدف آن کنترل فناوریهای نوین است. برخی از این دستورالعملها قابل اجرا هستند مانند بررسی اعتبار فناوری یا آنکه ریشه در سیاستهای قدیمی دارند مانند لزوم مسوولیتپذیری انسانی در هر مرحله. اما بقیه موارد دستورالعملهای نوینی در حوزه عمومی و خصوصی هستند. طبق این پیشنویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتمها مانند نژادپرستی جلوگیری کند. گاهی اوقات سیستمهای هوش مصنوعی سبب میشوند که با افراد ناعادلانه رفتار شود. این هیات از ارتش خواست که اطمینان حاصل کند نه فقط کدها بلکه منابع اطلاعاتی نیز خنثی هستند. در این پیشنویس هیات پنتاگون خواستار آن شده سیستم هوش مصنوعی قابل کنترل باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار میآورد، خود را متوقف کند یا یک اپراتور انسانی بتواند آن را متوقف کند. این امر اجازه تولید اسلحههای تمام خودکار را نمیدهد و از احتمال چالش زا شدن هوش مصنوعی نیز میکاهد.
ارسال نظر