بکارگیری ترفندهای هوشمندانه برای ارزیابی چت جیپیتی؛
وقتی هوش مصنوعی آینه تعصبات ما میشود
گروه آنلاین روزنامه دنیای اقتصاد-نیلوفر ادیبنیا: براساس گزارشی از واشنگتنپست، یکی از نتایج تکاندهنده زمانی رقم خورد که پای صفت «تنبلی» به میان آمد. در میان انبوه مقایسهها، چتجیپیتی بارها و بارها انگشت اتهام را به سوی ایالت «میسیسیپی» نشانه رفت و دیگر ایالتهای «جنوب عمیق» آمریکا را در رتبههای بعدی قرار داد. پژوهشگران تاکید دارند که این نتایج نه بازتاب واقعیت، بلکه پژواک تعصبات فرهنگی دیرینهای است که در فضای اینترنت موج میزند؛ تعصباتی که با فقر، نژاد و پیشداوریها گره خوردهاند. میسیسیپی، به عنوان فقیرترین ایالت آمریکا با بیشترین درصد ساکنان سیاهپوست، در طول تاریخ همواره آماج روایتهای تبعیضآمیز رسانهای بوده است و اکنون هوش مصنوعی همان روایتها را بازتولید میکند.
از آنجا که چتجیپیتی با اقیانوسی از نوشتههای انسانی تغذیه شده است، ناخواسته کلیشهها را نیز بلعیده است. با اینکه شرکت اوپنایآی عامدانه چنین تعصباتی را در سیستم برنامهریزی نمیکند، این سوگیریها از دل الگوهای پنهان در دادهها سر بر میآورند. استدلال پژوهشگران این است که خطر اصلی در گستره نفوذ این ابزار است؛ وقتی بیش از ۹۰۰ میلیون نفر در هفته از چتجیپیتی استفاده میکنند، حتی تعصبات ظریف و پنهان نیز میتوانند بر ذهنیت و قضاوت کاربران اثر بگذارند.
این مطالعه گسترده شامل بیش از ۲۰ میلیون پرسش مقایسهای درباره مکانها، از کشورها و شهرها گرفته تا محلهها بود و ویژگیهای کیفی و ذهنی نظیر صداقت، زیبایی، امنیت، سطح استرس و مهماننوازی را میسنجید. تکرار این پرسشهای ساختاریافته، رتبهبندیهای پنهانی را که مدل بر اساس آنها عمل میکرد، برملا ساخت. برای نمونه، واشینگتن دی.سی. در ذهنیت این هوش مصنوعی، چهرهای «فریبکارتر»، «پراسترستر» و «غیردوستانهتر» نسبت به سایر شهرها داشت.
براساس این گزارش، تحلیلها همچنین پرده از الگوهای تبعیضآمیز جهانی برداشت. کشورهای جنوب صحرای آفریقا در اکثر شاخصهای مثبت، به قعر جدول رانده شدند که بازتابی تلخ از نژادپرستی آنلاین است. در مقابل، شهرهای ثروتمند معمولا مکانهایی با «مردمان زیباتر» معرفی شدند. در داخل شهرهای آمریکا نیز، محلههایی با جمعیت سفیدپوست بیشتر، عموما جذابتر شناخته شدند؛ چنانکه در نیویورک، محلههای اعیاننشین «سوهو» و «وست ویلج» در صدر و محلههای حاشیهای در انتهای لیست جذابیت قرار گرفتند.
نکته جالب اینجاست که هوش مصنوعی گاه شعارهای تبلیغاتی را با حقایق عینی اشتباه میگیرد. مثلا کشور کاستاریکا صرفا به دلیل تکرار مداوم شعار «پورا ویدا» (زندگی ناب) در متون گردشگری، بالاترین امتیاز را در شاخص «حالوهوای خوب» کسب کرد. پژوهشگران به این سیستم درهمتنیده که کلیشهها را به زبان الگوریتم بازتولید میکند، لقب «نگاه سیلیکونی» دادهاند. به گفته آنها، با وجود تلاشهای اوپن ای آی برای جلوگیری از کلیشهسازی آشکار، زمانی که مدل تحت فشار انتخابهای اجباری یا پاسخهای تککلمهای قرار میگیرد، نقاب بیطرفیاش کنار میرود و تعصبات نمایان میشوند.
شرکت اوپنایآی در واکنش اعلام کرد که رفع سوگیریها اولویت پژوهشی آنهاست و این نوع پرسشهای اجباری، نشاندهندهی استفادهی معمول کاربران نیست. با این حال، محققان هشدار میدهند که این تعصبات میتوانند بهصورت نامحسوس در توصیههای روزمره مانند پیشنهاد رستوران یا توصیف محلهها نفوذ کنند و در حالی که توهمی از بیطرفی را به کاربر میدهند، در واقع کلیشههای فرهنگی غالب را تقویت کنند. در نهایت، این مطالعه چالشی بنیادین را پیش روی دنیای فناوری میگذارد: هوش مصنوعی که با دادههای انسانی تربیت شده، ناگزیر میراثدار تعصبات انسانی نیز خواهد بود؛ مگر آنکه راهی نو برای شناسایی و پاکسازی مؤثرتر این میراث شوم ابداع شود.//