پکن به‌دنبال هوش مصنوعی کمونیست

بر اساس گزارش روزنامه وال‌استریت، مقامات چین صدها هزار مورد محتوای غیرقانونی یا مضر را حذف کرده و هوش مصنوعی را به‌عنوان تهدید بالقوه در طرح ملی واکنش اضطراری طبقه‌بندی کرده‌اند. این رویکرد، اگرچه باعث کاهش خشونت و محتوای نامناسب در مدل‌های چینی می‌شود، اما کاربران هنوز می‌توانند با ترفندهایی محدودیت‌ها را دور بزنند. هم‌زمان، چین تلاش می‌کند بین کنترل محتوا و حفظ رقابت جهانی در هوش مصنوعی تعادل برقرار کند.

چت‌بات‌ها زیر ذره‌بین

در ماه نوامبر، پکن قوانینی را که پیش‌تر با همکاری شرکت‌های فعال در حوزه هوش مصنوعی روی آنها کار کرده بود، رسمی کرد. طبق این قوانین، چت‌بات‌ها باید با داده‌هایی آموزش ببینند که از نظر سیاسی پالایش شده‌اند و پیش از عرضه عمومی، یک آزمون ایدئولوژیک را پشت سر بگذارند. تمام متون، ویدئوها و تصاویر تولیدشده توسط هوش مصنوعی باید به‌طور صریح برچسب‌گذاری و قابل ردیابی باشند تا شناسایی و مجازات افرادی که محتوای نامطلوب منتشر می‌کنند، آسان‌تر شود.

مقامات هم اخیرا اعلام کردند که طی یک کارزار سه‌ماهه اجرای قانون، ۹۶۰ هزار مورد از آنچه «محتوای غیرقانونی یا مضر تولیدشده با هوش مصنوعی» می‌دانستند را حذف کرده‌اند. هم‌زمان با پیشرفته‌تر شدن مدل‌های هوش مصنوعی، مقامات چینی این فناوری را به‌عنوان یک تهدید بالقوه جدی طبقه‌بندی کرده و آن را در کنار زلزله‌ها و همه‌گیری‌ها به «طرح ملی واکنش اضطراری» افزوده‌اند.

پژوهشگرانی خارج از چین که هم مدل‌های چینی و هم مدل‌های آمریکایی را بررسی کرده‌اند، می‌گویند رویکرد نظارتی چین مزایایی دارد. به گفته آن‌ها، چت‌بات‌های چینی بر اساس برخی معیارها ایمن‌تر هستند؛ خشونت و محتوای مستهجن کمتری تولید می‌کنند و کمتر کاربران را به خودآزاری سوق می‌دهند. مت شیهان، پژوهشگر حوزه هوش مصنوعی چین در بنیاد کارنگی برای صلح بین‌المللی، می‌گوید: «اولویت اصلی حزب کمونیست همیشه تنظیم و کنترل محتوای سیاسی بوده، اما در درون سیستم افرادی هستند که واقعا به پیامدهای اجتماعی دیگر هوش مصنوعی، به‌ویژه تاثیر آن بر کودکان، اهمیت می‌دهند.»

با این حال، او اضافه می‌کند که آزمایش‌های اخیر نشان می‌دهد در مقایسه با چت‌بات‌های آمریکایی، نمونه‌های چینی به‌ویژه زمانی که به زبان انگلیسی مورد پرسش قرار می‌گیرند، راحت‌تر «جِیل‌بریک» می‌شوند؛ یعنی کاربران می‌توانند با ترفندهایی، مانند طرح سوال درباره ساخت بمب در قالب یک صحنه فیلم اکشن، از فیلترها عبور کنند. او می‌گوید: «یک کاربر باانگیزه همچنان می‌تواند با حقه‌هایی به اطلاعات خطرناک دست پیدا کند.»

وقتی سامانه‌های هوش مصنوعی بر محتوای اینترنت چین آموزش می‌بینند، این محتوا از پیش پاک‌سازی شده است؛ بخشی از آن به‌واسطه «دیوار آتش بزرگ چین» است؛ سامانه‌ای که پکن سال‌ها پیش برای مسدود کردن محتوای نامطلوب راه‌اندازی کرد. اما برای حفظ رقابت‌پذیری جهانی، شرکت‌های چینی ناچارند از منابع خارجی مانند ویکی‌پدیا نیز استفاده کنند؛ منابعی که به موضوعات تابو، از جمله کشتار میدان تیان‌آن‌من، می‌پردازند.

توسعه‌دهندگان مدل چینی ChatGLM در یک مقاله پژوهشی نوشته‌اند که شرکت‌ها گاهی با فیلتر کردن کلیدواژه‌ها و صفحات حساس بر اساس یک فهرست سیاه از پیش تعیین‌شده، با این مساله برخورد می‌کنند. اما زمانی که پژوهشگران آمریکایی این مدل‌های چینی را دانلود کرده و روی رایانه‌های خود در آمریکا اجرا کردند، بخش زیادی از سانسور از بین رفت. نتیجه‌گیری آنها این بود که اگرچه بخشی از سانسور در «مغز» مدل‌های هوش مصنوعی چینی نهادینه شده، اما بخش عمده آن پس از آموزش و در مرحله اجرا اعمال می‌شود.

نهادهای دولتی چین که بر حوزه هوش مصنوعی نظارت دارند، به درخواست‌ها برای اظهارنظر پاسخی ندادند. شرکت‌های هوش مصنوعی آمریکایی نیز برای محدود کردن انتشار خشونت یا محتوای نامناسب دیگر، تا حدی به‌منظور جلوگیری از شکایت‌های حقوقی و بدنامی، محتوا را تنظیم می‌کنند. اما به گفته پژوهشگران، تلاش‌های پکن، دست‌کم برای مدل‌هایی که در داخل چین فعالیت می‌کنند، معمولا بسیار فراتر می‌رود و بازتاب‌دهنده تلاش دیرینه این کشور برای کنترل گفتمان عمومی است.

چگونه محتوا فیلتر می‌شود

استانداردهای چین در حوزه هوش مصنوعی در یک سند مهم تشریح شده است؛ سندی که ماه گذشته به‌طور رسمی اجرا شد و به‌دست نهادهای ناظر بر فضای مجازی، پلیس امنیت سایبری، آزمایشگاه‌های دولتی و شرکت‌های پیشرو هوش مصنوعی چین، از جمله علی‌بابا و دیپ‌سیک، تدوین شده است. در این سند آمده است که ارزیابان انسانی شرکت‌های هوش مصنوعی باید برای هر قالب محتوایی مانند متن، ویدئو و تصویر که سامانه‌های هوش مصنوعی قادر به پردازش آن هستند، به‌طور تصادفی ۴ هزار نمونه از داده‌های آموزشی را بررسی کنند.

بر اساس این مقررات، شرکت‌ها تنها در صورتی مجاز به استفاده از یک منبع هستند که دست‌کم ۹۶ درصد محتوای آن «ایمن» تشخیص داده شود. برای تعیین اینکه چه محتوایی «ناایمن» تلقی می‌شود، مقررات ۳۱ نوع ریسک را مشخص کرده‌اند. نخستین مورد، هرگونه محتوای مرتبط با «تحریک به تضعیف قدرت دولت و سرنگونی نظام سوسیالیستی» است. از دیگر ریسک‌ها می‌توان به منابعی اشاره کرد که خشونت، اطلاعات نادرست یا تبعیض را ترویج می‌کنند، یا از تصویر و هویت افراد بدون اجازه استفاده می‌کنند.