نخستین قانون هوش مصنوعی جهان چه ویژگیهایی دارد؟
در ادامه نکات کلیدی مورد توافق آورده شده است. سیستمهای هوش مصنوعی به اصطلاح پرخطر (آنهایی که پتانسیل قابل توجهی برای آسیب رساندن به سلامت، ایمنی، حقوق اساسی، محیط زیست، دموکراسی، انتخابات و حاکمیت قانون دارند) باید از مجموعهای الزامات مانند ارزیابی تاثیر روی حقوق بنیادی و تعهدات برای دسترسی به بازار اتحادیه اروپا پیروی کنند. سیستمهای هوش مصنوعی که خطرات کمتری دارند مشمول تعهدات شفافیت بسیار سبکی خواهند بود، مانند برچسبهایی که اعلام میکنند محتوا توسط هوش مصنوعی تولید شده تا به کاربران اجازه دهد در مورد نحوه استفاده از آن تصمیم بگیرند.
مورد بعدی، استفاده از سیستمهای شناسایی بیومتریک در فضاهای عمومی توسط مجریان قانون تنها برای کمک به شناسایی قربانیان آدمربایی، قاچاق انسان، بهرهکشی جنسی و جلوگیری از تهدیدات تروریستی خواهد بود. آنها همچنین در تلاش برای ردیابی افراد مظنون به جرایم تروریستی، قاچاق، بهرهکشی جنسی، قتل، آدمربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی و جنایت محیطی مجاز خواهند بود. سیستمهای هوش مصنوعی با اهداف عمومی و مدلهای بنیادی مشمول الزامات شفافیت مانند تهیه مستندات فنی، مطابقت با قانون حق چاپ اتحادیه اروپا و انتشار خلاصههای دقیق درباره محتوای مورد استفاده برای آموزش الگوریتم خواهند بود. مدلهای بنیادی طبقهبندیشده به عنوان دارای ریسک سیستمی و سیستمهای هوش مصنوعی با اهداف عمومی با تاثیرگذاری بالا، باید ارزیابیهای مدل، ارزیابی و کاهش خطرات، انجام آزمایشهای خصمانه، گزارش به کمیسیون اروپا در مورد حوادث جدی، اطمینان از امنیت سایبری و گزارش کارآیی خود را انجام دهند. بسته به تخلف و اندازه شرکت درگیر، جریمهها از ۷.۵ میلیون یورو (۸ میلیون دلار) یا ۱.۵ درصد گردش مالی سالانه شروع میشود و تا ۳۵ میلیون یورو یا ۷ درصد گردش مالی افزایش پیدا میکند. نخستین پیشنویس قانون هوش مصنوعی اتحادیه اروپا در سال ۲۰۲۱ رونمایی شد که به دنبال همگامسازی قوانین برای تنظیم فناوری هوش مصنوعی در سراسر کشورهای عضو اتحادیه اروپا بود. تاکنون مذاکرات بر سر قوانینی که نظارت بیومتریک مانند تشخیص چهره و مدلهای هوش مصنوعی مانند چت جیپیتی را تنظیم میکنند، بسیار بحث برانگیز بوده است.