بنابراین نبود ملاحظات و قید و بندهای اخلاقی در ارتباط با آن می‌تواند بسیار خطرناک و فاجعه‌‌‌بار باشد و حتما باید چارچوب‌‌‌های اخلاقی مشخصی برای تصمیم‌گیری و اقداماتی که در آینده توسط هوش مصنوعی صورت خواهد گرفت، در نظر گرفته شود.

به‌‌‌طورکلی، پویایی‌‌‌ها و ویژگی‌‌‌های به‌‌‌سرعت در حال تکامل هوش مصنوعی به‌‌‌گونه‌‌‌ای است که از دو جهت موجب نگرانی انسان‌‌‌ها به‌‌‌طور عام و دانشمندان و متخصصان حوزه هوش مصنوعی به طور خاص شده است:

اول اینکه هوش مصنوعی ممکن است دقیقا مطابق با خواسته ما و بر اساس انتظارات ما عمل کند اما نتایجی را رقم بزند که مورد نظر ما نیست یا برای ما ناخوشایند است. به‌‌‌عنوان‌‌‌مثال، یک ماشین‌خودران ممکن است همان‌طور که ما آن را برنامه‌‌‌ریزی کرده‌‌‌ایم عمل کند و به‌‌‌خوبی در خیابان‌‌‌ها و جاده‌‌‌ها حرکت کند اما در زمان مواجه ‌‌‌شدن با موقعیت‌‌‌های خاص و ناگهانی تصمیماتی را بگیرد که زندگی انسان‌‌‌ها را به خطر بیندازد.

 بنابراین لازم است هوش‌مصنوعی به‌‌‌گونه‌‌‌ای طراحی شود که به‌‌‌طور کامل «خودکار» و «خودمختار» نباشد و امکان کنترل و مهار آن توسط انسان وجود داشته باشد.

دومین نگرانی انسان در مورد هوش مصنوعی از آنجا سرچشمه می‌گیرد که برخی از کارکردهای هوش مصنوعی ممکن است غیرقابل‌‌‌پیش‌بینی باشد، به‌‌‌طوری که ماشینی که برای منظور خاصی طراحی و تجهیز شده ممکن است دست به اقداماتی بزند که کارکردهای متفاوتی را برای آن ماشین تعریف کند که غیرقابل ‌‌‌پیش‌بینی و در نتیجه غیرقابل ‌‌‌کنترل خواهد بود. مثلا روباتی که با هدف پیروزی در بازی شطرنج طراحی‌‌‌شده، ممکن است به این توانایی برسد که در سایر بازی‌‌‌ها انسان را شکست دهد؛ حال ‌‌‌آنکه انسان انتظار چنین اقدامی را ندارد.

با توجه به نگرانی‌‌‌ها و دغدغه‌‌‌هایی که پیرامون نقش‌‌‌آفرینی غیرقابل ‌‌‌پیش‌بینی هوش مصنوعی در آینده وجود دارد، چنین به نظر می‌رسد که دولت‌‌‌ها، دانشگاه‌‌‌ها، سازمان‌ها و نوآوران بخش خصوصی باید دورهم جمع شوند و در زمینه چگونگی پیشبرد تحولات و برنامه‌‌‌ریزی‌‌‌ها برای آینده هوش مصنوعی هم‌‌‌اندیشی و تبادل‌‌‌نظر کنند. آنها باید محدودیت‌‌‌ها و ملاحظات امنیتی و اخلاقی خاصی را برای هوش مصنوعی تعریف کنند و همان موازین و مقرراتی که برای فعالیت اشخاص و سازمان‌ها تعریف کرده‌‌‌اند را در مورد ماشین‌‌‌ها و هوش مصنوعی آینده نیز در نظر بگیرند. البته در این میان باید به یک واقعیت غیرقابل‌‌‌انکار نیز توجه داشت:

اینکه اگرچه هوش مصنوعی بسیاری از ویژگی‌‌‌ها و مشخصات محصولات، خدمات و فناوری‌‌‌های جاافتاده امروز ما را در خود دارد، اما از جهات مختلفی نیز با آنها متفاوت است و بسیاری از الزامات قانونی و کارکردی آنها قابل تسری یافتن به هوش مصنوعی نیست؛ به‌‌‌ویژه به این دلیل که تحول و تکامل هوش مصنوعی آن‌‌‌قدر سریع و غیرقابل‌‌‌ پیش‌بینی است که قانون‌گذاری و چارچوب‌‌‌بندی برای آن را با مشکل روبه‌‌‌رو می‌‌‌سازد.

علاوه بر این، باید دانست که بسیاری از اصول اخلاقی و قوانین اجتماعی کنونی حاکم بر جوامع و انسان‌‌‌ها در مورد هوش مصنوعی و ماشین‌‌‌ها کارآیی و مصداق چندانی نخواهد داشت.

از سویی دیگر، ماشین‌‌‌ها و هوش مصنوعی فاقد استدلال و انگیزه و نیت و وجدان که جزو ویژگی‌‌‌های انسانی به‌‌‌حساب می‌‌‌آیند هستند و در نتیجه چنین ویژگی‌‌‌هایی نمی‌توانند برای هوش مصنوعی بازدارنده و هدایت‌‌‌کننده باشند. در واقع نمی‌توان هوش مصنوعی را به خاطر تصمیماتی که می‌گیرد یا اشتباهاتی که به هر دلیلی مرتکب می‌شود و قضاوت‌‌‌های نادرستی که کرده سرزنش کرد و مقصر دانست.

اگر قرار باشد یک نفر یا مرجع را به خاطر تصمیم‌گیری‌‌‌ها و اقدامات نادرست و مخرب هوش مصنوعی بازخواست و محکوم کرد، آن فرد یا نهاد قطعا همان کسی است که مسوولیت طراحی و ساخت آن هوش مصنوعی را بر عهده داشته است.

امروزه بخش قابل ‌‌‌توجهی از زندگی اجتماعی و اقتصادی و سیاسی ما بر پایه پلت‌فرم‌‌‌های شبکه‌‌‌ای قدرتمندی شکل‌‌‌گرفته که توسط هوش مصنوعی هدایت می‌‌‌شوند و بخش عمده‌‌‌ای از افکار عمومی جوامع به‌‌‌وسیله هوش مصنوعی شکل می‌گیرد.

اما سوالات کلیدی و مهمی در اینجا مطرح هستند که باید برای آنها پاسخ‌‌‌های قانع‌‌‌کننده‌‌‌ای پیدا کرد؛ از جمله اینکه چه کسی یا چه نهادی باید نقش و حدود فناوری به‌‌‌ویژه هوش مصنوعی را در زندگی انسان‌‌‌ها تعریف کند؟ چه کسی یا نهادی حق دارد و باید در زمینه هوش مصنوعی قانون‌گذاری کند؟ نقش و وظیفه کسانی که از هوش مصنوعی استفاده می‌‌‌کنند در این میان چیست؟

دولت‌‌‌هایی که هوش مصنوعی را برای رسیدن به اهداف خود به خدمت می‌‌‌گیرند، چه وظایفی بر عهده‌‌‌ دارند؟

پاسخ این سوالات اساسی و مهم هر چه که باشد یک‌‌‌چیز در اینجا قطعی است و آن اینکه تمام فرآیندها و اقدامات عملی درزمینه به‌‌‌کارگیری هوش مصنوعی باید قابل اصلاح و بازگشت‌‌‌پذیر باشند تا در صورت عدم‌کارآیی، بتوان آنها را با فرآیندها و اقدامات بهتری جایگزین کردو این آزمون ‌‌‌وخطا ممکن است برای مدت‌‌‌های طولانی ادامه پیدا کند.

به‌‌‌عنوان‌‌‌مثال، تاثیر هوش‌مصنوعی بر رسانه‌‌‌های اجتماعی را در نظر بگیرید. پلت‌فرم‌‌‌های رسانه‌‌‌های اجتماعی به لطف پیشرفت‌‌‌ها و نوآوری‌‌‌های اخیر در زمینه فناوری‌‌‌های دیجیتال به بخشی جدایی‌‌‌ناپذیر و تاثیرگذار در زندگی همه ما انسان‌‌‌ها تبدیل ‌‌‌شده‌‌‌اند به‌‌‌طوری که رسانه‌‌‌های اجتماعی فراگیری همچون توییتر و فیس‌‌‌بوک که توسط هوش مصنوعی هدایت و کنترل می‌‌‌شوند این حق و توانایی را دارند تا دست به‌‌‌گزینش، پالایش، ممنوعیت یا تبلیغ محتوای  خود بزنند.

این بدان معناست که عاملیت انسان در حوزه رسانه‌‌‌های اجتماعی تاثیرگذاری که تا این حد بر زندگی و کار ما نفوذ دارند در پایین‌‌‌ترین سطح ممکن است و این عامل هوش مصنوعی است که بسیاری از اتفاقات و فرآیندها را در رسانه‌‌‌های اجتماعی شکل می‌‌‌دهد.

به همین دلیل هم هست که بخش عمده زندگی سیاسی و اجتماعی ما انسان‌‌‌ها تحت کنترل هوش مصنوعی قرار گرفته و ما انسان‌‌‌ها در این میان فقط نقشی حاشیه‌‌‌ای و منفعلانه بازی می‌‌‌کنیم.

منبع: کتاب The age of AI: and our human future