قانون هوش مصنوعی اتحادیه اروپا چه ویژگیهایی دارد؟
قانون جامع کنترل هوش مصنوعی به مثابه یک چارچوب نظارتی انسان محور، بر اساس ریسکهای بالقوه و سطح تاثیر آنها، الزاماتی را برای تکنولوژیهای مختلف در این حوزه تعیین کرده است. به عنوان مثال، سیستمهای هوش مصنوعی به کار رفته در زیرساختهای حیاتی یا تجهیزات پزشکی تحت مقررات اجباری سختگیرانهتری قرار خواهند گرفت.
کاربردهای ممنوع
قانون هوش مصنوعی کاربردهای خاصی از هوش مصنوعی را که تهدیدی برای حقوق شهروندی محسوب میشوند ممنوع کرده است؛ از جمله کاربرد سیستمهای طبقهبندی بیومتریک که افراد را بر اساس ویژگیهای حساس شخصیتیشان طبقهبندی میکنند، استخراج و انطباق بیربط جلوههایی از صورت افراد به وسیله اینترنت یا استفاده از دوربینهای مدار بسته برای ایجاد پایگاههای داده برای تشخیص چهره مجاز نیست. همچنین تشخیص ویژگیهای عاطفی در مدارس و محیط کار، تعیین نمره میزان اجتماعی بودن، پیشبینیهای پلیسی که صرفا بر اساس مشخصات فردی یا ارزیابی شخصیت افراد صورت میگیرد و نیز کاربردهایی از هوش مصنوعی که رفتار انسانها را دستکاری میکند یا از آسیبپذیری و نقط ضعف آنها بهرهبرداری میکند ممنوع است.
معافیتهای مقررات در اجرا
اصولا استفاده از سیستمهای شناسایی بیومتریک (RBI) ممنوع است، مگر در وضعیتهای خاص که به طور کامل و دقیق حدود و ثغور آن معلوم است.
مثلا کاربرد سیستمهای شناسایی بیومتریک بلادرنگ (Real-Time Biometric Identification) که در آنها همزمانی رویداد و گزارش وجود دارد مشروط بر آنکه دامنه زمانی و جغرافیایی آن محدود شده باشد با کسب مجوز از مراجع اداری و قضایی مجاز است. جستوجوی هدفمند برای یافتن افراد گمشده یا پیشگیری از یک حمله تروریستی از جمله این کاربردهاست. در مقابل، استفاده از سیستمهای RBI با تاخیر (Post-Remote) پرریسک به حساب میآید و لازم است مربوط به یک مورد جنایی باشد و نیاز به مجوز مقامات قضایی دارد.
تکالیف سیستمهای پرریسک
در قانون هوش مصنوعی، برای سیستمهای پرریسک به دلیل ضرر بالقوه عظیمی که برای سلامتی، ایمنی، حقوق اساسی، محیطزیست، دموکراسی و امور حقوقی دارند تکالیف واضحی وضع شده است. ساختارهای حیاتی، آموزشهای رسمی و حرفهای، اشتغال و خدمات اساسی عمومی و خصوصی (مثل بهداشت و بانکداری)، سیستمهای ویژه اجرای قوانین، امور مهاجرتی و مدیریت مرزها، فرآیندهای دموکراتیک (مثلا تاثیرگذاری بر انتخابات) مثالهایی از سیستمهای پرریسک هستند. این سیستمها باید ارزیابی و کاهش ریسک انجام دهند، گزارشگیری و ثبت موارد استفاده را تداوم دهند، شفاف و دقیق باشند و از وجود نظارت انسانی روی سیستم اطمینان حاصل کنند. در چنین سیستمهایی شهروندان در مواردی که تصمیمات سیستم روی حقوق آنها تاثیر میگذارند حق دارند شکایت کنند و توضیح بخواهند.
الزامات مربوط به شفافیت
هوش مصنوعی چند منظوره و مدلهایی که این نوع هوش مصنوعی بر آن مبتنی هستند، باید الزامات معینی را در زمینه شفافیت از قبیل انطباق با قانون کپی رایت اتحادیه اروپا و انتشار کامل سرفصلهای محتوایی که برای آموزش استفاده میکنند رعایت کنند. هرچه ریسک سیستمهای چند منظوره هوش مصنوعی بیشتر باشد، الزامات بیشتری از قبیل ارزشیابی مدل، ارزیابی و کاهش ریسکهای سیستمی و گزارشدهی رویدادها به آنها اعمال میشود. همچنین تصاویر، محتواهای صوتی و ویدئویی که ساختگی یا دستکاری شده هستند باید با برچسب «دیپفیک» علامتگذاری شوند.
اقداماتی برای پشتیبانی از نوآوری و SMEها
مطابق قانون هوش مصنوعی، باید ابزارهای قانونی تسهیلکننده که امکان میدهند کسب و کارها - بهویژه کسب و کارهای کوچک (SMEs) و استارتآپها - محصولات و خدمات نوآورانه و از جمله هوش مصنوعی نوآورانه را قبل از اینکه روانه بازار کنند مورد آزمون قرار دهند، در سطح ملی هر کشور برقرار شوند. قانون هوش مصنوعی هنوز از نظر زبانشناسی حقوقی، توسط متخصصان ترجمه اسناد قانونی زبانهای مختلف اروپایی تحت بررسی است و انتظار میرود که مطابق معیارهای مربوطه نیز مورد پذیرش قرار گیرد. پس از تاریخ لازمالاجرا شدن و حداکثر طی ۲۴ ماه، بخشهای مختلف این قانون مطابق یک جدول زمانی به طور کامل قابل اعمال خواهد بود. به عنوان مثال، بخش مقررات مربوط به چتباتها تا اواسط ۲۰۲۶ به طور کامل اعمال میشود. حداکثر جریمهای که برای نقض قانون هوش مصنوعی در نظر گرفته شده است ۳۸ میلیون دلار و تا سقف ۷درصد درآمد جهانی یک شرکت است.
منبع: Forbes