پدرخوانده هوش مصنوعی به کمپین مقابله با فجایع این فناوری پیوست

به نقل از نشریه موسسه MIT هدف این پروژه که Safeguarded AI نام دارد و به معنی «هوش مصنوعی محافظت‌ شده» است، ساخت یک سیستم هوش مصنوعی است که بتواند بررسی کند که آیا سایر سیستم‌های هوش مصنوعی مستقر در مناطق حیاتی ایمن هستند یا خیر. بنجیو به عنوان مدیر علمی به این پروژه ملحق می‌شود و مشاوره‌های انتقادی و توصیه‌های علمی را ارائه می‌دهد. این پروژه که طی چهار سال آینده ۵۹ میلیون پوند اعتبار دریافت خواهد کرد، توسط آژانس تحقیقات و اختراعات پیشرفته بریتانیا (ARIA) تامین مالی می‌شود که در ژانویه سال گذشته برای سرمایه‌گذاری در تحقیقات علمی بالقوه تحول‌آفرین راه‌اندازی شد.

دیوید دالریمپل، مدیر برنامه هوش مصنوعی محافظت شده در ARIA، می‌گوید هدف «هوش مصنوعی محافظت‌شده» ساخت سیستم‌های هوش مصنوعی است که می‌توانند تضمین‌های کمی در مورد تاثیر آنها بر دنیای واقعی ارائه دهند. ایده این است که آزمایش انسانی را با تجزیه و تحلیل ریاضی پتانسیل آسیب‌رسانی سیستم‌های جدید تکمیل کند. هدف این پروژه ساخت مکانیسم‌های ایمنی هوش مصنوعی با ترکیب مدل‌های علمی جهان است که اساسا شبیه‌سازی‌هایی از جهان با اثبات‌های ریاضی هستند. این شواهد شامل توضیحاتی درباره کار هوش مصنوعی می‌شود و انسان‌ها وظیفه دارند بررسی کنند که آیا بررسی‌های ایمنی مدل هوش مصنوعی درست است یا خیر. بنجیو می‌گوید که می‌خواهد کمک کند تا این اطمینان حاصل شود که سیستم‌های هوش مصنوعی آینده نتوانند آسیب جدی وارد کنند. بنجیو می‌گوید، شرکت‌های علم و فناوری راهی برای ارائه تضمین‌های ریاضی مبنی بر اینکه سیستم‌های هوش مصنوعی طبق برنامه‌ریزی رفتار خواهند کرد، ندارند. او می‌گوید که این غیرقابل اعتماد بودن می‌تواند به نتایج فاجعه‌باری منجر شود. چشم‌انداز ساخت یک «هوش مصنوعی دروازه‌بان» است که وظیفه آن درک و کاهش خطرات ایمنی سایر عوامل هوش مصنوعی است. این دروازه‌بان تضمین می‌کند که عوامل هوش مصنوعی که در بخش‌های پرمخاطره مانند سیستم‌های حمل‌ونقل یا انرژی کار می‌کنند، همان‌طور که ما می‌خواهیم عمل کنند.