چرا هوش مصنوعی با وجود اشتباه کردن متقاعدکننده است؟

پروفسور کیوان وکیلی از مدرسه کسب‌وکار لندن، ریشه‌های متقاعدکنندگی هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ (LLM)، و خطرات پنهان آن را بررسی کرده است.

بر این اساس، سه نوع الگوریتم‌ پیش‌بینی‌کننده اصلی داریم:

 یادگیری نظارت‌شده: این الگوریتم‌ها با داده‌های نشان‌گذاری شده آموزش می‌بینند.

 نمونه‌هایی مانند فیلترهای اسپم از این نوع هستند. همان‌طور که به کودک یاد می‌دهیم مثلا سیب چیست، الگوریتم هم با نشان دادن نمونه‌های صحیح و غلط، یاد می‌گیرد.

  یادگیری بدون نظارت: در این روش، الگوریتم بدون نشان‌گذاری، الگوها و خوشه‌هایی را در داده‌ها شناسایی می‌کند. مانند کودکی که توپ‌های رنگی را بر اساس شباهت ظاهری دسته‌بندی می‌کند.

  یادگیری تقویتی: الگوریتم از طریق آزمون و خطا و دریافت پاداش یا تنبیه، بهینه‌ترین مسیر را برای حل مساله پیدا می‌کند. این روش در زمینه‌هایی مانند خودروهای خودران کاربرد دارد.

 ظهور هوش مصنوعی مولد

بخش عمده‌ای از توجهات اخیر به هوش مصنوعی، معطوف به مدل‌های زبانی بزرگی مانند چت‌جی‌پی‌تی، جمینای، کلاد و دیپ‌سیک است. این مدل‌ها از نظر فنی نوعی یادگیری نظارت‌شده هستند، اما به دلیل توانایی‌شان در تولید محتوا، به‌عنوان «هوش مصنوعی مولد» شناخته می‌شوند. هدف اصلی آنها تولید متن است، نه طبقه‌بندی یا پیش‌بینی دقیق.

این مدل‌ها برای دقیق بودن طراحی نشده‌اند، بلکه هدفشان تولید محتوای متقاعد کننده است. 

از آنجا که داده‌های آموزشی آنها از اینترنت گرفته شده، و محتوای اینترنتی اغلب با هدف جذب مخاطب تولید می‌شود، خروجی این مدل‌ها نیز بیشتر جنبه‌ اقناع دارد تا صحت.

پروفسور وکیلی، در پژوهشی مشترک با پروفسور «برایان استروب»، نشان داد که چت‌جی‌پی‌تی می‌تواند حتی افراد با پاسخ صحیح را متقاعد کند که پاسخشان اشتباه بوده است.

در این آزمایش، بیش از ۵۰ درصد شرکت‌کنندگان پس از مشاهده استدلال‌های اشتباه تولیدشده توسط مدل، پاسخ خود را تغییر دادند.

یکی دیگر از یافته‌های مهم وکیلی، مربوط به نحوه‌ استفاده از هوش مصنوعی در محیط‌های کاری است. 

افرادی که اعتمادبه‌نفس کمتری دارند یا تجربه‌ کمتری دارند، بیشتر به ابزارهای هوش مصنوعی متکی هستند.

 اما این افراد اغلب استفاده‌ خود را از این ابزارها پنهان می‌کنند، که این امر باعث می‌شود خطاهای احتمالی ناشی از هوش مصنوعی در سازمان‌ها شناسایی نشوند.

 پنج نکته کلیدی

در پایان، پنج نکته‌ مهم را برای درک بهتر هوش مصنوعی مطرح می‌کنیم:

۱. هوش مصنوعی مولد همه‌کاره نیست. مدل‌های زبانی بزرگ برای تولید محتوا طراحی شده‌اند، نه برای ارائه‌ اطلاعات دقیق. این مدل‌ها می‌توانند بسیار متقاعدکننده باشند، حتی زمانی که اشتباه می‌کنند.

۲. مزایا و خطرات باید هم‌زمان در نظر گرفته شوند. این مدل‌ها بهره‌وری را افزایش می‌دهند، اما مستعد تولید اطلاعات نادرست یا «توهمات» هستند؛ یعنی تولید جملاتی که واقعی به‌نظر می‌رسند اما در واقع صحت ندارند و نادرست هستند.

۳. استفاده‌ پنهانی از هوش مصنوعی رایج است. کاربرانی که بیشترین بهره را از هوش مصنوعی می‌برند، اغلب استفاده‌ خود را پنهان می‌کنند. سازمان‌ها باید مشوق‌هایی برای شفاف‌سازی استفاده از این ابزارها طراحی کنند.

۴. پذیرش سازمانی بسیار متغیر است. در حالی‌ که استفاده‌ فردی از هوش مصنوعی بالاست، در سطح سازمانی اغلب پایین باقی می‌ماند. دلایل این امر، بیشتر فرهنگی و مدیریتی هستند تا فنی.

۵. قضاوت انسانی حیاتی‌تر از همیشه است. در دنیای هوش مصنوعی، توانایی انسان‌ها در تحلیل و ارزیابی خروجی‌ مدل‌ها اهمیت بیشتری پیدا کرده است. آموزش سازمانی باید بر پرورش تفکر انتقادی و تصمیم‌گیری متمرکز شود.

بنابراین، در عصر هوش مصنوعی، آگاهی، شفافیت و قضاوت انسانی نقش کلیدی در بهره‌برداری صحیح از فناوری دارند. هنگام به‌کارگیری هوش مصنوعی باید مراقب نفوذ اطلاعات نادرست و تحلیل‌های گمراه‌کننده در فرآیند تصمیم‌گیری و تصمیم‌سازی باشیم.

منبع: European Business Review