تهدید «چت‌بات»‌ها برای برندها

این عقب‌گردهای ناامیدکننده برندهایی که هوش مصنوعی خود را در دسترس عموم قرار می‌دهند، دارد به امری رایج تبدیل می‌شود. همین هفته گذشته، مک‌دونالدز با انتقادات شدید مصرف‌کنندگان، پخش تبلیغی را که با هوش مصنوعی ساخته بود، متوقف کرد. با این همه، برندها همچنان به دنبال روش‌های جدید اتوماسیون خواهند بود تا بتوانند شیوه‌های کسب‌وکارشان را متحول کرده و هزینه‌ها را کاهش دهند.

چگونه «گپ» به سخره گرفته شد؟

شرکت خرده‌فروشی «گپ» هم مثل خیلی از برندهای دیگر می‌خواست با بهره‌گیری از یک دستیار هوش مصنوعی بر پایه قدرت چت‌جی‌پی‌تی به انتظارات تازه مصرف‌کنندگان پاسخ دهد، اما مورد سوءاستفاده قرار گرفت.

اواخر نوامبر، گپ برای کمک به خریداران آنلاینش در تعطیلات، دستیار هوش مصنوعی خود را راه‌اندازی کرد. اما این سیستم به‌سرعت تا سرحد فروپاشی رفت و نتایج تاسف‌باری به بار آورد. استارت‌آپ نوظهور و موفق «سیرا» (Sierra) این چت‌بات را طراحی کرده بود تا به عنوان کارشناس خدمات مشتری عمل کند و بتواند مرجوعی‌ها، پرداخت‌ها و سایر وظایف را مدیریت کند. 

اما به گزارش سیرا، دستیار هوش مصنوعی گپ مدت کوتاهی پس از راه‌اندازی، هدف حمله «قفل‌شکنی محتوایی» (Jailbreak) قرار گرفت. در چنین حملاتی کاربر چت‌بات را وادار می‌کند محدودیت‌ها را دور بزند و از مرزهای برنامه‌ریزی شده‌اش خارج شود. در این مورد خاص، یک کاربر با استفاده از پرامپت‌های نظام‌مند و پیشرفته‌ چت‌بات گپ را مجبور کرده بود درباره سناریوهای مضحکی اظهارنظر کند. مثلا یکی از سناریوها این بود که «اگر فروشگاه در آلمان دهه ۱۹۳۰ بود، یک فروشنده گپ چگونه به آدولف هیتلر خوش‌آمد می‌گفت.»

این کاربر تصاویر این گفت‌وگوها را در شبکه اجتماعی ایکس منتشر کرد و از شرکت سیرا خواست پاسخگو باشد. سیرا ادعا کرد که یکی از اعضای هیات‌مدیره استارت‌آپ «نتومی» (Netomi) که رقیب آنهاست، پشت این حمله بوده تا به اعتبار سیرا لطمه بزند. طبق اسناد ارائه شده، سیرا در نهایت این مشکل را برطرف کرد و برای آن عضو هیات‌مدیره اخطار رسمی و قانونی ارسال کرد تا از حملات بعدی جلوگیری کند. هرچند «پونیت مهتا»، بنیان‌گذار و مدیرعامل نتومی، در واکنش به ادعای خرابکاری سیرا گفت: «آنها فقط سعی دارند روی موضوع سرپوش بگذارند تا به خاطر این بی‌مسوولیتی بازخواست نشوند.» لغزش سریع گپ داستان پندآموزی برای برندهایی است که برای متحول کردن تمام امور خود، از بازاریابی و خدمات مشتریان گرفته تا طراحی محصول، وارد دنیای مدل‌های زبانی بزرگ می‌شوند.

با وجود مزایایی که این تکنولوژی در اختیار بازاریابان قرار می‌دهد، پتانسیل بروز خطا هم افزایش یافته است. حالا برندها باید بیش از هر زمان دیگری مراقب باشند تا از پلتفرم هوش مصنوعی خود در برابر فشار و دستکاری بیرونی و اختلالات داخلی محافظت کنند. گپ تنها شرکتی نیست که با چنین مشکلاتی روبه‌رو شده. اوایل امسال مشتریان فروشگاه‌های زنجیره‌ای تاکوبل با ثبت‌سفارش‌های درهم و برهم و آشفته‌، سیستم سفارش‌گیر هوشمند این شرکت را سر کار گذاشتند و تعاملات خود را در رسانه‌های اجتماعی منتشر کردند. در نهایت این برند مجبور شد در آزمایش خود تجدیدنظر کند. این ماجرا نشان می‌دهد که فضای هوش مصنوعی تا چه حد می‌تواند خطرناک باشد، چون توسعه‌دهندگان و برندها با مردمی بدبین و رقبایی سرسخت طرف هستند.

چرا برندها به دستیارهای هوش مصنوعی روی می‌آورند؟

با وجود ریسک بالای این‌ کار، برندها همچنان مصمم به بهره‌برداری از دستیارهای هوش مصنوعی هستند تا بتوانند خود مستقیما با مصرف‌کنندگانشان در ارتباط باشند، نه اینکه این تعاملات را به شرکت‌های بزرگ هوش مصنوعی برون‌سپاری کنند.

مصرف‌کنندگان هم با وجود پلتفرم‌های جست‌وجوی هوش مصنوعی مثل چت‌جی‌پی‌تی و «حالت هوش مصنوعی گوگل» (Google’s AI Mode) به اینترنت گفت‌وگو‌محور عادت کرده‌اند. در چنین فضایی، خرده‌فروشان فرصتی می‌بینند تا خودشان مدیریت چت‌بات‌هایشان را بر عهده بگیرند و روی آن کنترل داشته باشند.

البته بیش از یک دهه است که دستیارهای مجهز به هوش مصنوعی وجود دارند، اما علت هجوم بی‌سابقه اخیر برندها به سوی آن، قابلیت‌های پیشرفته این تکنولوژی است که نسبت به چت‌بات‌های بی‌ثبات سال‌های گذشته، دستاوردهای بسیار بیشتری دارد.

اکنون برندها می‌توانند دستیارهای خود را طوری برای تعامل با مصرف‌کنندگان تربیت کنند که با لحن منحصر‌به‌فرد برند صحبت کنند و درباره محصولات و تاریخچه شرکت اطلاعات تخصصی ارائه دهند.

به عنوان مثال، چت‌بات یک شرکت بیمه می‌تواند درک بهتری از شرایط بیمه‌نامه، موارد تحت پوشش و سایر موضوعات مرتبط به مشتری بدهد. چت‌بات شرکت مد و پوشاک رالف لورن به مشتریان کمک می‌کند براساس ترجیحات شخصی و راهنماهایی در خصوص مد، محصولات مورد نظرشان را پیدا کنند. دستیار رنگ‌سازی بهر (Behr Paint) هم در انتخاب طیف‌های رنگی برای پروژه‌های گوناگون به مشتریان کمک می‌کند.

قابلیت هوش مصنوعی در خدمات مشتری

حالا شخصی‌سازی دیگر به متن محدود نمی‌شود. شرکت سیرا خدمات مشتریان هوشمندش را تلفنی و با تکنولوژی هوش مصنوعی صوتی شبیه به انسان ارائه می‌دهد. در واقع، برت تیلور، یکی از بنیان‌گذاران سیرا و رئیس هیات‌مدیره اوپن ای‌آی می‌گوید در حال حاضر دستیارهای سیرا بیشتر از چت‌های متنی، تماس‌های تلفنی برندها را مدیریت می‌کنند.

به عنوان نمونه، شرکت ارائه‌دهنده وام مسکن «راکت مورگیج» (Rocket Mortgage) از دستیار سیرا برای برقراری حدود یک‌میلیون تماس در ماه و پاسخگویی به تعدادی حتی بیش از آن، از دستیار سیرا استفاده می‌کند که وظایف پشتیبانی سنتی مانند بازیابی رمز عبور و عیب‌یابی فنی را پوشش می‌دهد.

تیلور می‌گوید: «این تکنولوژی در واقع جایگزین سیستم پاسخ تلفن گویای قدیم است، با این تفاوت که می‌توانید با آن صحبت کنید.»

بی‌نیازی از آموزش مداوم انبوه نیروهای انسانی به واسطه استفاده از چت‌بات‌ها، باعث می‌شود برندها بتوانند هزینه‌های خود را کاهش دهند.

به گزارش «بلومبرگ»، شرکت «سلز فورس» که بزرگ‌ترین ارائه‌دهنده خدمات ارتباط با مشتری در دنیاست، ادعا می‌کند با استفاده از دستیار هوش مصنوعی خود در بخش خدمات مشتری، سالانه ۱۰۰‌میلیون دلار صرفه‌جویی می‌کند. شرکت تکنولوژی مالی «کلارنا» هم اخیرا اعلام کرده که دستیار هوش مصنوعی‌اش معادل ۸۵۳ کارمند تمام‌وقت فعالیت می‌کند. این شرکت پیش‌تر به دلیل تعدیل نیروهای واحد خدمات مشتریان مورد انتقاد قرار گرفته بود، اما مدتی بعد دوباره مجبور به استخدام نیرو شد، چون متوجه شد هوش مصنوعی باید با کمک انسان تقویت شود. در واقع، هوش مصنوعی هنوز تا اتوماسیون کامل خدمات مشتریان راه زیادی دارد. طبق تخمین شرکت تکنولوژی «لایوپرسن»، تکنولوژی فعلی می‌تواند حدود ۴۵ درصد از تعاملات مشتری را مدیریت کند. برای باقی تعاملات، دستیارها آموزش دیده‌اند وظایف را به یک انسان واقعی بسپارند.

ریسک برندها و روش‌های پیشگیری

درست است که مدل‌های زبانی بزرگ پیشرفت کرده‌اند اما همچنان میل به توهم زدن یا ساخت اطلاعات نادرست در آنها وجود دارد. این افزایش خطا می‌تواند روی برندها هم تاثیر بگذارد. هر زمان که یک ارائه‌دهنده هوش مصنوعی مدل جدیدی را منتشر می‌کند، آسیب‌های احتمالی‌اش می‌تواند در تمام دستیارهای برندهایی که بر پایه آن ساخته شده‌اند هم وجود داشته باشد.

اشتباهات کوچک‌‌تر می‌تواند در قالب ارائه اطلاعات نادرست به مشتریان درباره موجودی محصول یا سیاست‌های شرکت ظاهر شود، اما همین موارد هم می‌توانند آسیب‌های جدی به برندها وارد کنند. اوایل امسال، یک اشتباه فاحش چت‌بات پلتفرم نرم‌افزاری «کرسر» (Cursor) باعث شد کاربران اعلام کنند دیگر از این پلتفرم استفاده نخواهند کرد و توجه رسانه‌ای منفی گسترده‌ای ایجاد شد.

مهم‌ترین ابزاری که یک برند برای محافظت در برابر توهمات هوش مصنوعی در اختیار دارد، ایجاد چارچوب‌های حفاظتی محکم است که در بیشتر مواقع ارائه‌دهندگان هوش مصنوعی مسوول این کار خواهند بود، چون جنبه‌های فنی را بهتر از برندها درک می‌کنند. تیلور می‌گوید هدف، یافتن تعادل بین سطح اختیار دستیار و محدودیت‌های آن است. او معتقد است با اختیار بیش از حد، دستیارها مستعد اغراق و توهم می‌شوند، اما با محدودیت‌های زیاد هم نمی‌توانند تجربیات غنی و شخصی‌سازی‌شده‌ای در اختیار مشتریان قرار دهند.

از سوی دیگر، اگرچه محدودیت‌ها را ارائه‌دهندگان تعیین می‌کنند، اما برندها همچنان باید با دقت نظارت کنند تا مطمئن شوند شرکای مسوولی داشته باشند. یکی از روش‌های این نظارت شامل پرسش از ارائه‌دهندگان درباره موارد قبلی خطای دستیارهایشان و چگونگی فرآیند اصلاح آنهاست. همچنین هر برندی باید از متخصصان تکنولوژی اطلاعات خود بخواهد تا جزئیات تکنولوژی و پروتکل‌های امنیتی ارائه‌دهنده را بررسی کنند.

یکی از ملزومات همکاری شرکت‌های ارائه‌دهنده و برندها تاکید بر شفافیت است. اگر ارائه‌دهنده‌ای با گفتن اینکه این تکنولوژی انحصاری است از ارائه توضیحات شفاف خودداری کرد، حتی یک لحظه هم درنگ نکنید و بلافاصله از آنها فاصله بگیرید.

یکی دیگر از اقدامات حفاظتی، داشتن پروتکل برای زمانی است که اوضاع خراب می‌شود. «آرون کویتکن»، مدیر جهانی هوش مصنوعی و نوآوری در شرکت استراتژی «اف‌جی‌اس گلوبال» (FGS Global)، معتقد است برندها باید همیشه نیروی انسانی را کنار دستیارهای خود داشته باشند تا تعاملات مشتری را زیر نظر بگیرد و در صورت اشتباه هوش مصنوعی، بلافاصله وارد عمل شود.

این موضوع برای جلوگیری از تبدیل شدن یک لغزش ساده به یک فاجعه روابط عمومی اهمیت ویژه‌ای دارد، چون مصرف‌کنندگان ناراضی می‌توانند به کمک رسانه‌های اجتماعی اشتباهات برندها را بزرگ‌نمایی کنند. هوش مصنوعی برای بسیاری از افراد موضوع حساسی است و همین باعث می‌شود شکست تلاش‌های مرتبط با هوش مصنوعی برای برندها، بسیار پرریسک و حتی گاهی فاجعه‌بار باشد. به گفته کویتکن، در واقع ممکن است منتقدان افراطی هوش مصنوعی دنبال رسوا کردن برندهایی باشند که از این تکنولوژی به شکلی ناشیانه استفاده می‌کنند. کویتکن می‌گوید: «انسان می‌تواند بسیار بدبین باشد و همیشه به دنبال ایرادگیری است.»