محتوای AI در چین باید از آزمون ایدئولوژیک عبور کند؛
پکن بهدنبال هوش مصنوعی کمونیست
بر اساس گزارش روزنامه والاستریت، مقامات چین صدها هزار مورد محتوای غیرقانونی یا مضر را حذف کرده و هوش مصنوعی را بهعنوان تهدید بالقوه در طرح ملی واکنش اضطراری طبقهبندی کردهاند. این رویکرد، اگرچه باعث کاهش خشونت و محتوای نامناسب در مدلهای چینی میشود، اما کاربران هنوز میتوانند با ترفندهایی محدودیتها را دور بزنند. همزمان، چین تلاش میکند بین کنترل محتوا و حفظ رقابت جهانی در هوش مصنوعی تعادل برقرار کند.
چتباتها زیر ذرهبین
در ماه نوامبر، پکن قوانینی را که پیشتر با همکاری شرکتهای فعال در حوزه هوش مصنوعی روی آنها کار کرده بود، رسمی کرد. طبق این قوانین، چتباتها باید با دادههایی آموزش ببینند که از نظر سیاسی پالایش شدهاند و پیش از عرضه عمومی، یک آزمون ایدئولوژیک را پشت سر بگذارند. تمام متون، ویدئوها و تصاویر تولیدشده توسط هوش مصنوعی باید بهطور صریح برچسبگذاری و قابل ردیابی باشند تا شناسایی و مجازات افرادی که محتوای نامطلوب منتشر میکنند، آسانتر شود.
مقامات هم اخیرا اعلام کردند که طی یک کارزار سهماهه اجرای قانون، ۹۶۰ هزار مورد از آنچه «محتوای غیرقانونی یا مضر تولیدشده با هوش مصنوعی» میدانستند را حذف کردهاند. همزمان با پیشرفتهتر شدن مدلهای هوش مصنوعی، مقامات چینی این فناوری را بهعنوان یک تهدید بالقوه جدی طبقهبندی کرده و آن را در کنار زلزلهها و همهگیریها به «طرح ملی واکنش اضطراری» افزودهاند.
پژوهشگرانی خارج از چین که هم مدلهای چینی و هم مدلهای آمریکایی را بررسی کردهاند، میگویند رویکرد نظارتی چین مزایایی دارد. به گفته آنها، چتباتهای چینی بر اساس برخی معیارها ایمنتر هستند؛ خشونت و محتوای مستهجن کمتری تولید میکنند و کمتر کاربران را به خودآزاری سوق میدهند. مت شیهان، پژوهشگر حوزه هوش مصنوعی چین در بنیاد کارنگی برای صلح بینالمللی، میگوید: «اولویت اصلی حزب کمونیست همیشه تنظیم و کنترل محتوای سیاسی بوده، اما در درون سیستم افرادی هستند که واقعا به پیامدهای اجتماعی دیگر هوش مصنوعی، بهویژه تاثیر آن بر کودکان، اهمیت میدهند.»
با این حال، او اضافه میکند که آزمایشهای اخیر نشان میدهد در مقایسه با چتباتهای آمریکایی، نمونههای چینی بهویژه زمانی که به زبان انگلیسی مورد پرسش قرار میگیرند، راحتتر «جِیلبریک» میشوند؛ یعنی کاربران میتوانند با ترفندهایی، مانند طرح سوال درباره ساخت بمب در قالب یک صحنه فیلم اکشن، از فیلترها عبور کنند. او میگوید: «یک کاربر باانگیزه همچنان میتواند با حقههایی به اطلاعات خطرناک دست پیدا کند.»
وقتی سامانههای هوش مصنوعی بر محتوای اینترنت چین آموزش میبینند، این محتوا از پیش پاکسازی شده است؛ بخشی از آن بهواسطه «دیوار آتش بزرگ چین» است؛ سامانهای که پکن سالها پیش برای مسدود کردن محتوای نامطلوب راهاندازی کرد. اما برای حفظ رقابتپذیری جهانی، شرکتهای چینی ناچارند از منابع خارجی مانند ویکیپدیا نیز استفاده کنند؛ منابعی که به موضوعات تابو، از جمله کشتار میدان تیانآنمن، میپردازند.
توسعهدهندگان مدل چینی ChatGLM در یک مقاله پژوهشی نوشتهاند که شرکتها گاهی با فیلتر کردن کلیدواژهها و صفحات حساس بر اساس یک فهرست سیاه از پیش تعیینشده، با این مساله برخورد میکنند. اما زمانی که پژوهشگران آمریکایی این مدلهای چینی را دانلود کرده و روی رایانههای خود در آمریکا اجرا کردند، بخش زیادی از سانسور از بین رفت. نتیجهگیری آنها این بود که اگرچه بخشی از سانسور در «مغز» مدلهای هوش مصنوعی چینی نهادینه شده، اما بخش عمده آن پس از آموزش و در مرحله اجرا اعمال میشود.
نهادهای دولتی چین که بر حوزه هوش مصنوعی نظارت دارند، به درخواستها برای اظهارنظر پاسخی ندادند. شرکتهای هوش مصنوعی آمریکایی نیز برای محدود کردن انتشار خشونت یا محتوای نامناسب دیگر، تا حدی بهمنظور جلوگیری از شکایتهای حقوقی و بدنامی، محتوا را تنظیم میکنند. اما به گفته پژوهشگران، تلاشهای پکن، دستکم برای مدلهایی که در داخل چین فعالیت میکنند، معمولا بسیار فراتر میرود و بازتابدهنده تلاش دیرینه این کشور برای کنترل گفتمان عمومی است.
چگونه محتوا فیلتر میشود
استانداردهای چین در حوزه هوش مصنوعی در یک سند مهم تشریح شده است؛ سندی که ماه گذشته بهطور رسمی اجرا شد و بهدست نهادهای ناظر بر فضای مجازی، پلیس امنیت سایبری، آزمایشگاههای دولتی و شرکتهای پیشرو هوش مصنوعی چین، از جمله علیبابا و دیپسیک، تدوین شده است. در این سند آمده است که ارزیابان انسانی شرکتهای هوش مصنوعی باید برای هر قالب محتوایی مانند متن، ویدئو و تصویر که سامانههای هوش مصنوعی قادر به پردازش آن هستند، بهطور تصادفی ۴ هزار نمونه از دادههای آموزشی را بررسی کنند.
بر اساس این مقررات، شرکتها تنها در صورتی مجاز به استفاده از یک منبع هستند که دستکم ۹۶ درصد محتوای آن «ایمن» تشخیص داده شود. برای تعیین اینکه چه محتوایی «ناایمن» تلقی میشود، مقررات ۳۱ نوع ریسک را مشخص کردهاند. نخستین مورد، هرگونه محتوای مرتبط با «تحریک به تضعیف قدرت دولت و سرنگونی نظام سوسیالیستی» است. از دیگر ریسکها میتوان به منابعی اشاره کرد که خشونت، اطلاعات نادرست یا تبعیض را ترویج میکنند، یا از تصویر و هویت افراد بدون اجازه استفاده میکنند.