تنظیم‌گری در هوش مصنوعی

گزارش شاخص هوش مصنوعی۲۰۲۴ از سوی موسسه هوش مصنوعی انسان-محور استنفورد (Stanford Institute for Human-Centered Artificial Intelligence) با گسترش دامنه خود روندهای اساسی مانند پیشرفت‌های فنی در هوش مصنوعی، درک عمومی از فناوری و پویایی‌های ژئوپلیتیک پیرامون توسعه آن را نیز پوشش داده است. این گزارش نشان می‌دهد هوش مصنوعی در چندین معیار مانند طبقه‌بندی تصاویر، استدلال بصری و درک زبان انگلیسی از عملکرد انسان پیشی گرفته است. با این حال، انسان همچنان در کارهای پیچیده‌تری مانند ریاضیات و استدلال عام بصری همچنان هوش مصنوعی را پشت سر می‌گذارد. این گزارش نتایج نظرسنجی‌های مختلف را نیز مرور می‌کند که همگی نشان می‌دهند در طول سال گذشته، به‌طور همزمان آگاهی درباره تاثیر بالقوه هوش مصنوعی و نگرانی درباره محصولات و خدمات آن به‌طور قابل توجهی افزایش یافته است. از این رو شاید قابل انتظار باشد که تعداد مقررات مرتبط با هوش مصنوعی در ایالات متحده در سال‌های گذشته به‌طور قابل توجهی از یک‌مورد در سال۲۰۱۶ به ۲۵مورد درسال۲۰۲۳ افزایش یافته باشد.

واقعیت این است که با وجود فرصت‌های چشم‌گیری که ابزارهای هوش مصنوعی در اختیار افراد، صنایع و کشورها می‌گذارند، همچنان ابهام‌های فراوان و چالش‌های گوناگونی درباره مرزهای گسترش آن وجود دارد. بسیاری از سیستم‌های یادگیری ماشین بر اساس حجم زیادی از داده‌ها، از جمله داده‌های شخصی عمل می‌کنند و به راحتی می‌توانند به حریم خصوصی افراد آسیب برسانند.

عجم‌اوغلو در فصلی از کتاب حکمرانی هوش مصنوعی(The Oxford Handbook of AI Governance) با عنوان آسیب‌های هوش مصنوعی، استدلال می‌کند که اگر هوش مصنوعی همچنان کنترل‌نشده باقی بماند، ممکن است آسیب‌های اجتماعی، اقتصادی و سیاسی مختلفی مانند رقابت مخرب، نقض حریم خصوصی و انتخاب مصرف‌کننده، خودکارسازی بیش از حد کار، دامن زدن به نابرابری، کاهش ناکارآمد دستمزدها، ناتوانی در بهبود بهره‌وری کارگران و آسیب به گفتمان سیاسی ایجاد کند. او نشان می‌دهد که این هزینه‌ها ذاتی ماهیت فناوری‌های هوش مصنوعی نیستند، بلکه به نحوه استفاده و توسعه آنها برای توانمندسازی شرکت‌ها و دولت‌ها در برابر کارگران و شهروندان مرتبطند. در نتیجه، شاید تلاش‌ها برای محدود و معکوس کردن این هزینه‌ها تنها با ترویج رقابت ناکافی باشد و نیاز به تکیه بر مقررات و سیاستگذاری‌ها برای هدایت پژوهش‌های هوش مصنوعی وجود داشته باشد.

هوش مصنوعی می‌تواند منجر به بهبود سلامت فردی شود که به نفع جامعه است و اثرات خارجی مثبت دارد. برخی از کاربردهای یادگیری ماشین نیز در امنیت ملی، نظارت بر سلامت و بهداشت عمومی، حفاظت از محیط زیست، مدیریت بلایای طبیعی دارای ویژگی‌های کالاهای عمومی هستند. هوش مصنوعی همچنین می‌تواند نابرابری‌ها را به‌ویژه در دسترسی به خدمات، آموزش و فرصت‌های شغلی تشدید کند و منجر به تمرکز بیشتر ثروت و قدرت شود؛ چراکه مزایای فناوری‌های مبتنی بر هوش مصنوعی اغلب برای افراد ثروتمندتر یا کسانی که در مناطق توسعه‌یافته هستند، قابل دسترس‌تر است. بنابراین هوش مصنوعی می‌تواند به انواع مختلفی از شکست‌های بازار کمک کند که به‌طور بالقوه به رفاه اجتماعی آسیب می‌رساند و از این رو نیازمند تنظیم‌گری و مداخله دولت است.

درواقع تنظیم‌گری (Regulation) به معنای توسعه سیاست‌ها و قوانین نظارتی بخش عمومی برای ترویج و تنظیم استفاده مسوولانه از ابزارهای هوش مصنوعی، موضوعی در حال ظهور در بسیاری کشورها و سازمان‌های بین‌المللی است. آنها همچنان درگیر چالش‌های بسیاری در هوش مصنوعی به‌ویژه در حوزه اخلاق و هنجارهای اجتماعی هستند؛ مانند اینکه آیا می‌توان استانداردها یا قوانینی در برابر پیامدهای ناخواسته‌ توسعه هوش مصنوعی مانند تولید ایجاد سلاح‌های خودکار، ناهمسویی با ارزش‌های انسانی و اصول اخلاقی مانند حقوق بشر و ناهمخوانی با اولویت‌های جوامع مانند افزایش رفاه تنظیم کرد. برای تنظیم‌گیری در حوزه هوش مصنوعی دو رویکرد نرم و سخت وجود دارد که هریک با چالش‌های خاص خود درگیرند. از طرفی فناوری هوش مصنوعی به سرعت در حال تکامل است و قانون الزام‌آور سخت (Hard Law) منجر به مشکل سرعت (Pacing Problem) به معنای ناهمگامی قوانین با سرعت پیشی گرفتن برنامه‌های کاربردی نوظهور و خطرات و مزایای مرتبط با آنها می‌شود. از سوی دیگر، در رویکرد جایگزین، با اینکه قوانین نرم (Soft Law) به‌عنوان ابزارهای شبه حقوقی مانند دستورالعمل‌ها (Guidelines)، سازگاری و انعطاف‌پذیری بیشتری برای همپایی با سرعت روند تکامل هوش مصنوعی دارند، اغلب فاقد پتانسیل اجرایی قابل توجه هستند.

تنظیم‌گری همچنین به معنای مدیریت مساله کنترل هوش مصنوعی (AI Control Problem) یا همسویی هوش مصنوعی (AI Alignment) است تا اطمینان حاصل شود که دست کم در درازمدت، استفاده از هوش مصنوعی برای جوامع سودمند و همسو با اهداف، ترجیحات و اصول اخلاقی مورد نظر آن است؛ به‌ویژه که هوش مصنوعی با نزدیک شدن به توانایی‌های شناختی انسان-‌مانند در هوش عمومی مصنوعی (Artificial General Intelligence) و حتی فراانسانی، در صورت عدم همسویی می‌تواند تمدن بشری را به خطر بیندازد. یک سیستم هوش مصنوعی، اگر اهدافی ناخواسته (Unintended) را دنبال کند، ناهمسو (Misaligned) خوانده می‌شود. برای مثال، یک الگوریتم یادگیری ماشین ممکن است به‌طور ناخواسته سوگیری‌های موجود در داده‌های آموزشی خود (مثلا آمار بالاتر جرم در رنگین پوستان) را تقویت کنند که منجر به تبعیض‌ در استخدام، اجرای قانون یا وام‌دهی ‌شود. این سیستم‌ها به‌ویژه در حوزه‌های حساس مانند تشخیص پزشکی می‌توانند آسیب‌های زیادی در حوزه سلامت ایجاد کنند.

تنظیم‌گری در حوزه هوش مصنوعی تلاش می‌کند که تا جای ممکن اطمینان حاصل کند که فناوری‌های این حوزه دارای هوش مصنوعی قابل اعتماد (Trustworthy AI) و هوش مصنوعی مسوول (Responsible AI) است. هوش مصنوعی قابل اعتماد برای شفافیت، پایداری و احترام به حریم خصوصی داده‌ها طراحی و مستقر شده‌ و مبتنی بر استانداردهای اخلاقی و ایمنی است که از داده‌ها حفاظت و از سوءاستفاده و دسترسی غیرمجاز به اطلاعات حساس و آسیب ناشی از توصیه‌های سوگیرانه جلوگیری می‌کند. هوش مصنوعی مسوول نیز اشاره به روش‌های طراحی، توسعه و استقرار سیستم‌های هوش مصنوعی دارد که نتایج منصفانه، شفاف و امن را در اولویت قرار می‌دهد. شفافیت در اینجا به این معنا است که عواملی که بر تصمیم‌های گرفته‌شده توسط الگوریتم‌ها تاثیر می‌گذارند، باید برای افرادی قابل مشاهده باشند که از آن الگوریتم‌ها استفاده می‌کنند یا تحت تاثیر سیستمی قرار می‌گیرند که از آن الگوریتم‌ها استفاده کرده است.

چالش بسیار مهم دیگر درباره یادگیری ماشین این است که آنها عموما به‌صورت جعبه سیاه کار می‌کنند، بدون آنکه دقیقا مشخص و قابل توضیح باشد چگونه خروجی‌های آنها از آموزش اولیه روی داده‌ها حاصل آمده‌اند. از آنجا که درک آنها برخلاف مدل‌های جعبه سفید، حتی برای متخصصان نیز بسیار سخت یا ناممکن است، طبیعتا کاربران نیز نمی‌توانند بدانند این سیستم‌ها چگونه کار می‌کنند و چرا تصمیم‌های خاصی می‌گیرند.

هوش مصنوعی توضیح‌پذیر (Explainable AI) یا یادگیری ماشین تفسیرپذیر(Interpretable Machine Learning) تلاش می‌کند که تصمیمات هوش مصنوعی، به‌ویژه تصمیماتی که بر زندگی افراد تاثیر قابل توجه می‌گذارند، قابل توضیح و درک باشند. اتحادیه اروپا حق توضیح داشتن (Right to Explanation) را در قانون حق حفاظت از داده‌های عمومی (General Data Protection Regulation) برای رسیدگی به مشکلات احتمالی ناشی از کاربست الگوریتم‌ها معرفی کرده است. در ایالات متحده و فرانسه نیز قانون به افراد حق درخواست و دریافت اطلاعات مربوط به اجرای الگوریتم‌هایی را می‌دهد که داده‌های مربوط به آنها را پردازش می‌کنند. در جاهایی که چنین توضیحی ممکن نباشد، چارچوب‌های قانونی می‌توانند مسوولیت‌ها را شفاف و الگوریتم‌ها را پاسخ‌گو کنند؛ به این ترتیب، شرکت‌ها و توسعه‌دهندگان در قبال نتایج برنامه‌های کاربردی هوش مصنوعی، از جمله هرگونه عواقب ناخواسته آنها پاسخ‌گو و مسوولیت‌پذیر خواهند بود. به بیان دیگر، در پاسخ‌گویی الگوریتمی (Algorithmic Accountability)، پاسخ‌گویی متناسب با پیامدهای اقدامات دنیای واقعی ناشی از اجرای الگوریتم‌ها خواهد بود.

مرور مطالعات در سال‌های اخیر نشان می‌دهد که هوش مصنوعی باعث افزایش بهره‌وری کارگران و کاهش شکاف مهارتی بین کارگران می‌شود. با وجود این، خودکارسازی فعالیت‌ها در کشوری مانند ایران که فناوری تولید بسیاری صنایع همچنان تا حد زیادی مبتنی بر نیروی کار انسانی (Labor Intensive) است، می‌تواند باعث کاهش فرصت‌های شغلی در برخی از صنایع شود. از این رو تنظیم‌گری در کشور می‌تواند با مالیات بر خودکارسازی برای تامین مالی برنامه‌های بازآموزی و مهارت‌آموزی، به نیروی کار کمک کند تا با این تغییرات سازگار شود. این واقعیت که متاسفانه در سال‌های گذشته ایران نتوانسته همپای برخی کشورهای همسایه خود در حوزه هوش مصنوعی پیشرفت‌های قابل مقایسه‌ای داشته باشد، از قضا مزیتی در زمینه تنظیم‌گری است که کمک می‌کند در همین گام‌های اولیه توسعه ابزارهای هوش مصنوعی در کشور، با استفاده از تجربه سایر کشورهای پیشرو در تنظیم‌گری این حوزه، بتوان به هوش مصنوعی قابل اعتماد، مسوول و پاسخ‌گو دست یافت که کمترین چالش را در بازار کار کشور ایجاد کند.