چرا هوش مصنوعی با وجود اشتباه کردن متقاعدکننده است؟
پروفسور کیوان وکیلی از مدرسه کسبوکار لندن، ریشههای متقاعدکنندگی هوش مصنوعی، بهویژه مدلهای زبانی بزرگ (LLM)، و خطرات پنهان آن را بررسی کرده است.
بر این اساس، سه نوع الگوریتم پیشبینیکننده اصلی داریم:
یادگیری نظارتشده: این الگوریتمها با دادههای نشانگذاری شده آموزش میبینند.
نمونههایی مانند فیلترهای اسپم از این نوع هستند. همانطور که به کودک یاد میدهیم مثلا سیب چیست، الگوریتم هم با نشان دادن نمونههای صحیح و غلط، یاد میگیرد.
یادگیری بدون نظارت: در این روش، الگوریتم بدون نشانگذاری، الگوها و خوشههایی را در دادهها شناسایی میکند. مانند کودکی که توپهای رنگی را بر اساس شباهت ظاهری دستهبندی میکند.
یادگیری تقویتی: الگوریتم از طریق آزمون و خطا و دریافت پاداش یا تنبیه، بهینهترین مسیر را برای حل مساله پیدا میکند. این روش در زمینههایی مانند خودروهای خودران کاربرد دارد.
ظهور هوش مصنوعی مولد
بخش عمدهای از توجهات اخیر به هوش مصنوعی، معطوف به مدلهای زبانی بزرگی مانند چتجیپیتی، جمینای، کلاد و دیپسیک است. این مدلها از نظر فنی نوعی یادگیری نظارتشده هستند، اما به دلیل تواناییشان در تولید محتوا، بهعنوان «هوش مصنوعی مولد» شناخته میشوند. هدف اصلی آنها تولید متن است، نه طبقهبندی یا پیشبینی دقیق.
این مدلها برای دقیق بودن طراحی نشدهاند، بلکه هدفشان تولید محتوای متقاعد کننده است.
از آنجا که دادههای آموزشی آنها از اینترنت گرفته شده، و محتوای اینترنتی اغلب با هدف جذب مخاطب تولید میشود، خروجی این مدلها نیز بیشتر جنبه اقناع دارد تا صحت.
پروفسور وکیلی، در پژوهشی مشترک با پروفسور «برایان استروب»، نشان داد که چتجیپیتی میتواند حتی افراد با پاسخ صحیح را متقاعد کند که پاسخشان اشتباه بوده است.
در این آزمایش، بیش از ۵۰ درصد شرکتکنندگان پس از مشاهده استدلالهای اشتباه تولیدشده توسط مدل، پاسخ خود را تغییر دادند.
یکی دیگر از یافتههای مهم وکیلی، مربوط به نحوه استفاده از هوش مصنوعی در محیطهای کاری است.
افرادی که اعتمادبهنفس کمتری دارند یا تجربه کمتری دارند، بیشتر به ابزارهای هوش مصنوعی متکی هستند.
اما این افراد اغلب استفاده خود را از این ابزارها پنهان میکنند، که این امر باعث میشود خطاهای احتمالی ناشی از هوش مصنوعی در سازمانها شناسایی نشوند.
پنج نکته کلیدی
در پایان، پنج نکته مهم را برای درک بهتر هوش مصنوعی مطرح میکنیم:
۱. هوش مصنوعی مولد همهکاره نیست. مدلهای زبانی بزرگ برای تولید محتوا طراحی شدهاند، نه برای ارائه اطلاعات دقیق. این مدلها میتوانند بسیار متقاعدکننده باشند، حتی زمانی که اشتباه میکنند.
۲. مزایا و خطرات باید همزمان در نظر گرفته شوند. این مدلها بهرهوری را افزایش میدهند، اما مستعد تولید اطلاعات نادرست یا «توهمات» هستند؛ یعنی تولید جملاتی که واقعی بهنظر میرسند اما در واقع صحت ندارند و نادرست هستند.
۳. استفاده پنهانی از هوش مصنوعی رایج است. کاربرانی که بیشترین بهره را از هوش مصنوعی میبرند، اغلب استفاده خود را پنهان میکنند. سازمانها باید مشوقهایی برای شفافسازی استفاده از این ابزارها طراحی کنند.
۴. پذیرش سازمانی بسیار متغیر است. در حالی که استفاده فردی از هوش مصنوعی بالاست، در سطح سازمانی اغلب پایین باقی میماند. دلایل این امر، بیشتر فرهنگی و مدیریتی هستند تا فنی.
۵. قضاوت انسانی حیاتیتر از همیشه است. در دنیای هوش مصنوعی، توانایی انسانها در تحلیل و ارزیابی خروجی مدلها اهمیت بیشتری پیدا کرده است. آموزش سازمانی باید بر پرورش تفکر انتقادی و تصمیمگیری متمرکز شود.
بنابراین، در عصر هوش مصنوعی، آگاهی، شفافیت و قضاوت انسانی نقش کلیدی در بهرهبرداری صحیح از فناوری دارند. هنگام بهکارگیری هوش مصنوعی باید مراقب نفوذ اطلاعات نادرست و تحلیلهای گمراهکننده در فرآیند تصمیمگیری و تصمیمسازی باشیم.
منبع: European Business Review