وقتی هوش مصنوعی آینه‌ تعصبات ما می‌شود

گروه آنلاین روزنامه دنیای اقتصاد-نیلوفر ادیب‌نیابراساس گزارشی از واشنگتن‌پست، یکی از نتایج تکان‌دهنده زمانی رقم خورد که پای صفت «تنبلی» به میان آمد. در میان انبوه مقایسه‌ها، چت‌جی‌پی‌تی بارها و بارها انگشت اتهام را به سوی ایالت «می‌سی‌سی‌پی» نشانه رفت و دیگر ایالت‌های «جنوب عمیق» آمریکا را در رتبه‌های بعدی قرار داد. پژوهشگران تاکید دارند که این نتایج نه بازتاب واقعیت، بلکه پژواک تعصبات فرهنگی دیرینه‌ای است که در فضای اینترنت موج می‌زند؛ تعصباتی که با فقر، نژاد و پیش‌داوری‌ها گره خورده‌اند. می‌سی‌سی‌پی، به عنوان فقیرترین ایالت آمریکا با بیشترین درصد ساکنان سیاه‌پوست، در طول تاریخ همواره آماج روایت‌های تبعیض‌آمیز رسانه‌ای بوده است و اکنون هوش مصنوعی همان روایت‌ها را بازتولید می‌کند.

از آنجا که چت‌جی‌پی‌تی با اقیانوسی از نوشته‌های انسانی تغذیه شده است، ناخواسته کلیشه‌ها را نیز بلعیده است. با اینکه شرکت اوپن‌ای‌آی عامدانه چنین تعصباتی را در سیستم برنامه‌ریزی نمی‌کند، این سوگیری‌ها از دل الگوهای پنهان در داده‌ها سر بر می‌آورند. استدلال پژوهشگران این است که خطر اصلی در گستره‌ نفوذ این ابزار است؛ وقتی بیش از ۹۰۰ میلیون نفر در هفته از چت‌جی‌پی‌تی استفاده می‌کنند، حتی تعصبات ظریف و پنهان نیز می‌توانند بر ذهنیت و قضاوت کاربران اثر بگذارند.

این مطالعه‌ گسترده شامل بیش از ۲۰ میلیون پرسش مقایسه‌ای درباره مکان‌ها، از کشورها و شهرها گرفته تا محله‌ها بود و ویژگی‌های کیفی و ذهنی نظیر صداقت، زیبایی، امنیت، سطح استرس و مهمان‌نوازی را می‌سنجید. تکرار این پرسش‌های ساختاریافته، رتبه‌بندی‌های پنهانی را که مدل بر اساس آن‌ها عمل می‌کرد، برملا ساخت. برای نمونه، واشینگتن دی.سی. در ذهنیت این هوش مصنوعی، چهره‌ای «فریبکارتر»، «پراسترس‌تر» و «غیردوستانه‌تر» نسبت به سایر شهرها داشت.

براساس این گزارش،‌ تحلیل‌ها همچنین پرده از الگوهای تبعیض‌آمیز جهانی برداشت. کشورهای جنوب صحرای آفریقا در اکثر شاخص‌های مثبت، به قعر جدول رانده شدند که بازتابی تلخ از نژادپرستی آنلاین است. در مقابل، شهرهای ثروتمند معمولا مکان‌هایی با «مردمان زیباتر» معرفی شدند. در داخل شهرهای آمریکا نیز، محله‌هایی با جمعیت سفیدپوست بیشتر، عموما جذاب‌تر شناخته شدند؛ چنان‌که در نیویورک، محله‌های اعیان‌نشین «سوهو» و «وست ویلج» در صدر و محله‌های حاشیه‌ای در انتهای لیست جذابیت قرار گرفتند.

نکته جالب اینجاست که هوش مصنوعی گاه شعارهای تبلیغاتی را با حقایق عینی اشتباه می‌گیرد. مثلا کشور کاستاریکا صرفا به دلیل تکرار مداوم شعار «پورا ویدا» (زندگی ناب) در متون گردشگری، بالاترین امتیاز را در شاخص «حال‌وهوای خوب» کسب کرد. پژوهشگران به این سیستم درهم‌تنیده که کلیشه‌ها را به زبان الگوریتم بازتولید می‌کند، لقب «نگاه سیلیکونی»  داده‌اند. به گفته‌ آن‌ها، با وجود تلاش‌های اوپن ای آی برای جلوگیری از کلیشه‌سازی آشکار، زمانی که مدل تحت فشار انتخاب‌های اجباری یا پاسخ‌های تک‌کلمه‌ای قرار می‌گیرد، نقاب بی‌طرفی‌اش کنار می‌رود و تعصبات نمایان می‌شوند.

شرکت اوپن‌ای‌آی در واکنش اعلام کرد که رفع سوگیری‌ها اولویت پژوهشی آن‌هاست و این نوع پرسش‌های اجباری، نشان‌دهنده‌ی استفاده‌ی معمول کاربران نیست. با این حال، محققان هشدار می‌دهند که این تعصبات می‌توانند به‌صورت نامحسوس در توصیه‌های روزمره مانند پیشنهاد رستوران یا توصیف محله‌ها نفوذ کنند و در حالی که توهمی از بی‌طرفی را به کاربر می‌دهند، در واقع کلیشه‌های فرهنگی غالب را تقویت کنند. در نهایت، این مطالعه چالشی بنیادین را پیش روی دنیای فناوری می‌گذارد: هوش مصنوعی که با داده‌های انسانی تربیت شده، ناگزیر میراث‌دار تعصبات انسانی نیز خواهد بود؛ مگر آنکه راهی نو برای شناسایی و پاکسازی مؤثرتر این میراث شوم ابداع شود.//