یونسکو خواستار اجرای چارچوب اخلاقی هوش مصنوعی شد
آدری آزولای، مدیرکل یونسکو در این باره گفت: «جهان به قوانین اخلاقی قویتری برای هوش مصنوعی نیاز دارد؛ این چالش زمانه ماست. توصیه یونسکو در مورد اخلاق هوش مصنوعی چارچوب هنجاری مناسبی را تعیین میکند. همه کشورهای عضو ما این توصیه را در نوامبر ۲۰۲۱ تایید کردند. زمان آن فرا رسیده است که استراتژیها و مقررات در سطح ملی اجرا شوند. ما باید آن را پیش ببریم و اطمینان حاصل کنیم که به اهداف این توصیه عمل میکنیم.»
توصیه یونسکو در مورد اخلاق هوش مصنوعی نخستین چارچوب جهانی برای استفاده اخلاقی از هوش مصنوعی است. این چارچوب کشورها را در مورد چگونگی به حداکثر رساندن مزایای هوش مصنوعی و کاهش خطرات ناشی از آن راهنمایی میکند. برای این منظور، حاوی ارزشها و اصول و همچنین توصیههای سیاستی مفصل در تمام زمینههای مرتبط است. یونسکو نگران بسیاری از مسائل اخلاقی ناشی از این نوآوریها، به ویژه تبعیض و کلیشهسازی، از جمله موضوع نابرابری جنسیتی، مبارزه با اطلاعات نادرست، حفظ حریم خصوصی، حفاظت از دادههای شخصی و مسائل مربوط به حقوق بشر و محیطزیست است.
خودتنظیمی صنعت به وضوح برای جلوگیری از این آسیبهای اخلاقی کافی نیست. به همین دلیل است که این چارچوب تعیینشده ابزارهایی را فراهم میکند تا اطمینان حاصل شود که پیشرفتهای هوش مصنوعی از قانون تبعیت کرده، از آسیب جلوگیری میکنند و اطمینان میدهد که هنگام آسیب، مکانیسمهای پاسخگویی و جبران خسارت در دسترس کسانی که آسیب دیدهاند، قرار دارد. چارچوب تعیینشده یونسکو ابزار ارزیابی آمادگی را در مرکز راهنمایی خود برای کشورهای عضو قرار میدهد. این ابزار کشورها را قادر میسازد تا شایستگیها و مهارتهای مورد نیاز در نیروی کار را برای اطمینان از مقررات قوی بخش هوش مصنوعی بررسی کنند. این چارچوب همچنین مقرر میدارد که دولتها بهطور منظم در مورد پیشرفت و عملکرد خود در زمینه هوش مصنوعی به ویژه با ارائه گزارش دورهای هر چهار سال یکبار، گزارش دهند. تا به امروز، بیش از ۴۰ کشور در تمام مناطق جهان در حال حاضر با یونسکو برای توسعه کنترل و تعادل هوش مصنوعی در سطح ملی، بر اساس این توصیه، همکاری میکنند. یونسکو از همه کشورها میخواهد که به جنبشی بپیوندند که برای ایجاد یک هوش مصنوعی اخلاقی رهبری میکند. گزارش پیشرفت در مجمع جهانی یونسکو در مورد اخلاقیات هوش مصنوعی در اسلوونی در دسامبر ۲۰۲۳ ارائه خواهد شد.