برای صد ساله شدن باید نخست متولد شد
آنچه باید در مورد اخلاقیات هوش مصنوعی بدانید
تقریبا تمام مدیرانی که نسبت به موضوع هوش مصنوعی و پیشرفتهای سریع و شگفتانگیز صورت گرفته در این حوزه حساس هستند و به روباتها و ماشینها به عنوان گزینههای جدی جایگزینی کارکنان در شرکتها و سازمان نگاه میکنند در یکی از دو اردوگاه زیر قرار میگیرند: اردوگاه بدبینها یعنی کسانی که معتقدند هوش مصنوعی بزرگترین و خطرناک ترین تهدید برای نوع بشر و انسانیت است و در آیندهای نزدیک انسانها را به بردگی خواهد کشید. اردوگاه خوشبینها یعنی کسانی که معتقدند هوش مصنوعی را باید با کمال میل در آغوش کشید و این هوش مصنوعی است که به همراه خود دریایی از خلاقیت و نوآوری و بهرهوری و پیشرفتهای اجتماعی را به ارمغان خواهد آورد و مکمل بسیار خوبی برای انسان خواهد بود.
این نگاه خیر و شر نسبت به روباتها و ماشینها در میان مدیران و رهبران سازمان مدتها است که وجود داشته است و بسیاری از تصمیماتی که آنها برای هدایت سازمانهایشان اتخاذ میکنند از همین نگاه خیر و شر نسبت به هوش مصنوعی سرچشمه میگیرد. با این همه باید دانست که چه خوشمان بیاید و چه خوشمان نیاید روباتها و ماشینها بر اساس طبیعتشان فاقد هرگونه نگاه انسانی و اخلاقی هستند و همان تصمیمیرا میگیرند و همان کاری را انجام میدهند که برایشان برنامهریزی شدهاند.
در این میان پرسش کلیدی این نیست که آیا روزی فرا خواهد رسید که روباتها از انسانها هوشمندتر و قوی تر شوند ( که به طور حتم این اتفاق در آینده خواهد افتاد) بلکه سوال مهم تر و حساس تر این است که آیا روباتها و ماشینها به سمت خوب بودن و خیر حرکت خواهند کرد یا به سمت بد بودن و شر. بنابراین ما باید تمام تلاشمان را بکنیم تا از افتادن هوش مصنوعی در مسیر نادرست و شر جلوگیری کنیم. اما چگونه چنین چیزی ممکن است و مدیران سازمانها چگونه میتوانند از تبدیل شدن هوش مصنوعی در سازمانهای شان به یک هیولای مخوف جلوگیری کنند؟ توجه به نکات زیر در این زمینه میتواند گرهگشا باشد:
۱-حفاظت از خود : انسانها بر اساس طبیعت شان میل به بقا و حفاظت از خود دارند و زنده ماندن خود را بر هر چیز دیگری ترجیح میدهند البته در این میان ارزشهای انسانی و اخلاقی خاصی وجود دارند که میل به حفاظت از خود را به سمت درستی هدایت میکنند. با این همه چنین ارزشهایی در دنیای روباتها و ماشینها جایگاهی ندارد و چنانچه روباتها و ماشینها به گونهای طراحی شوند که فقط به بقا و حفاظت از خود فکر کنند آنگاه احتمال انجام هر کار غیرانسانی از آنها وجود خواهد داشت. بنابراین لازم است که مدیران سازمانها در زمان تصمیمگیری در مورد پیاده سازی سیستمهای هوش مصنوعی در مجموعههای کاری تحت رهبریشان بر این نکته تاکید کنند که خاصیت خودحفاظتی روباتها به بهای از بین رفتن جان انسانها تمام نشود.
۲-ملاحظات مرتبط با اکثریت و اقلیت: با پیشرفتهتر شدن و هوشمندتر شدن سیستمهای هوش مصنوعی ملاحظات جدیتری در ارتباط با حقوق اکثریت و اقلیت برای این سیستمها مطرح میشود به طوریکه روباتها و ماشینهایی که قرار است به مدیران و رهبران شرکتها و سازمانها مشاوره و ایده بدهند باید در ابتدا به این تحلیل برسند که پیامدهای تصمیمگیریهایشان بر اکثریت جامعه یا اقلیتی از مردم جامعه چیست و آیا باید به نیازها و خواستههای عموم جامعه بیش از منافع افرادی خاص شامل مالکان، سرمایهگذاران و سهامداران بها داد و آن را در اولویت اصلی برنامهریزیها و تصمیمگیریها قرار داد؟ به عنوان مثال سیستمهای هوش مصنوعی به کار رفته در یک کارخانه باید به گونهای طراحی شوند که بفهمند فاضلاب یا دودکشهای یک کارخانه در حال آلوده ساختن آب و هوای محیط پیرامون است و جان هزاران انسان را به خطر انداخته است و به همین دلیل باید از ادامه فعالیت کارخانه به هر شکلی جلوگیری کرد. در اینجا اگر سیستمهای هوش مصنوعی و روباتها بهگونهای طراحی شده باشند که حقوق اکثریت مردم یعنی شهروندانی را که در اطراف کارخانه زندگی میکنند به منافع مادی مالکان کارخانه یا ارزش سهام کارخانه نزد سهامداران ترجیح دهند، آنگاه میتوان ادعا کرد که هوش مصنوعی در حال حرکت به سمت خوب بودن و خیر است و نقش مکمل انسان و نجات دهنده او در برابر وسوسههای مادیگرایانه را بازی میکند.
۳- قوانین انسانی در برابر قوانین ماشینی: رعایت قوانین نوشته شده برای ماشینها یا رعایت قوانین انسانی یکی دیگر از تعارضاتی است که مدیران و رهبران سازمانها در زمان برنامهریزی و تصمیمگیری در مورد سیستمهای هوش مصنوعی باید آن را به درستی تجزیه و تحلیل کرده و تصمیم درستی راجع به آن بگیرند. همه ما میدانیم که متاسفانه بسیاری از قوانین انسانی موجود از سوی خود انسانها رعایت نمیشوند و چه بسیارند مدیران یا کارکنانی که به خاطر منافع شخصی یا سازمانی پا روی قوانین و ارزشهای انسانی میگذارند حال آنکه ماشینها و روباتهایی هم هستند که به گونهای برنامهریزی شدهاند که قوانین ماشینی «خوبی» را رعایت میکنند که آنها را از زیر پا گذاشتن ارزشهای انسانی منع میکنند. به همین دلیل هم هست که مدیران باید سیستمهای هوش مصنوعی «فهمیدهای» را طراحی کنند یا به کار گیرند که در تقابل بین قوانین انسانی و قوانین ماشینی جانب انصاف را داشته و توجه به ارزشهای انسانی و اخلاقی را در اولویت قرار دهند.