چرا شرکتها از دستیار هوش مصنوعی استفاده میکنند؟
تهدید «چتبات»ها برای برندها
این عقبگردهای ناامیدکننده برندهایی که هوش مصنوعی خود را در دسترس عموم قرار میدهند، دارد به امری رایج تبدیل میشود. همین هفته گذشته، مکدونالدز با انتقادات شدید مصرفکنندگان، پخش تبلیغی را که با هوش مصنوعی ساخته بود، متوقف کرد. با این همه، برندها همچنان به دنبال روشهای جدید اتوماسیون خواهند بود تا بتوانند شیوههای کسبوکارشان را متحول کرده و هزینهها را کاهش دهند.
چگونه «گپ» به سخره گرفته شد؟
شرکت خردهفروشی «گپ» هم مثل خیلی از برندهای دیگر میخواست با بهرهگیری از یک دستیار هوش مصنوعی بر پایه قدرت چتجیپیتی به انتظارات تازه مصرفکنندگان پاسخ دهد، اما مورد سوءاستفاده قرار گرفت.
اواخر نوامبر، گپ برای کمک به خریداران آنلاینش در تعطیلات، دستیار هوش مصنوعی خود را راهاندازی کرد. اما این سیستم بهسرعت تا سرحد فروپاشی رفت و نتایج تاسفباری به بار آورد. استارتآپ نوظهور و موفق «سیرا» (Sierra) این چتبات را طراحی کرده بود تا به عنوان کارشناس خدمات مشتری عمل کند و بتواند مرجوعیها، پرداختها و سایر وظایف را مدیریت کند.
اما به گزارش سیرا، دستیار هوش مصنوعی گپ مدت کوتاهی پس از راهاندازی، هدف حمله «قفلشکنی محتوایی» (Jailbreak) قرار گرفت. در چنین حملاتی کاربر چتبات را وادار میکند محدودیتها را دور بزند و از مرزهای برنامهریزی شدهاش خارج شود. در این مورد خاص، یک کاربر با استفاده از پرامپتهای نظاممند و پیشرفته چتبات گپ را مجبور کرده بود درباره سناریوهای مضحکی اظهارنظر کند. مثلا یکی از سناریوها این بود که «اگر فروشگاه در آلمان دهه ۱۹۳۰ بود، یک فروشنده گپ چگونه به آدولف هیتلر خوشآمد میگفت.»
این کاربر تصاویر این گفتوگوها را در شبکه اجتماعی ایکس منتشر کرد و از شرکت سیرا خواست پاسخگو باشد. سیرا ادعا کرد که یکی از اعضای هیاتمدیره استارتآپ «نتومی» (Netomi) که رقیب آنهاست، پشت این حمله بوده تا به اعتبار سیرا لطمه بزند. طبق اسناد ارائه شده، سیرا در نهایت این مشکل را برطرف کرد و برای آن عضو هیاتمدیره اخطار رسمی و قانونی ارسال کرد تا از حملات بعدی جلوگیری کند. هرچند «پونیت مهتا»، بنیانگذار و مدیرعامل نتومی، در واکنش به ادعای خرابکاری سیرا گفت: «آنها فقط سعی دارند روی موضوع سرپوش بگذارند تا به خاطر این بیمسوولیتی بازخواست نشوند.» لغزش سریع گپ داستان پندآموزی برای برندهایی است که برای متحول کردن تمام امور خود، از بازاریابی و خدمات مشتریان گرفته تا طراحی محصول، وارد دنیای مدلهای زبانی بزرگ میشوند.
با وجود مزایایی که این تکنولوژی در اختیار بازاریابان قرار میدهد، پتانسیل بروز خطا هم افزایش یافته است. حالا برندها باید بیش از هر زمان دیگری مراقب باشند تا از پلتفرم هوش مصنوعی خود در برابر فشار و دستکاری بیرونی و اختلالات داخلی محافظت کنند. گپ تنها شرکتی نیست که با چنین مشکلاتی روبهرو شده. اوایل امسال مشتریان فروشگاههای زنجیرهای تاکوبل با ثبتسفارشهای درهم و برهم و آشفته، سیستم سفارشگیر هوشمند این شرکت را سر کار گذاشتند و تعاملات خود را در رسانههای اجتماعی منتشر کردند. در نهایت این برند مجبور شد در آزمایش خود تجدیدنظر کند. این ماجرا نشان میدهد که فضای هوش مصنوعی تا چه حد میتواند خطرناک باشد، چون توسعهدهندگان و برندها با مردمی بدبین و رقبایی سرسخت طرف هستند.
چرا برندها به دستیارهای هوش مصنوعی روی میآورند؟
با وجود ریسک بالای این کار، برندها همچنان مصمم به بهرهبرداری از دستیارهای هوش مصنوعی هستند تا بتوانند خود مستقیما با مصرفکنندگانشان در ارتباط باشند، نه اینکه این تعاملات را به شرکتهای بزرگ هوش مصنوعی برونسپاری کنند.
مصرفکنندگان هم با وجود پلتفرمهای جستوجوی هوش مصنوعی مثل چتجیپیتی و «حالت هوش مصنوعی گوگل» (Google’s AI Mode) به اینترنت گفتوگومحور عادت کردهاند. در چنین فضایی، خردهفروشان فرصتی میبینند تا خودشان مدیریت چتباتهایشان را بر عهده بگیرند و روی آن کنترل داشته باشند.
البته بیش از یک دهه است که دستیارهای مجهز به هوش مصنوعی وجود دارند، اما علت هجوم بیسابقه اخیر برندها به سوی آن، قابلیتهای پیشرفته این تکنولوژی است که نسبت به چتباتهای بیثبات سالهای گذشته، دستاوردهای بسیار بیشتری دارد.
اکنون برندها میتوانند دستیارهای خود را طوری برای تعامل با مصرفکنندگان تربیت کنند که با لحن منحصربهفرد برند صحبت کنند و درباره محصولات و تاریخچه شرکت اطلاعات تخصصی ارائه دهند.
به عنوان مثال، چتبات یک شرکت بیمه میتواند درک بهتری از شرایط بیمهنامه، موارد تحت پوشش و سایر موضوعات مرتبط به مشتری بدهد. چتبات شرکت مد و پوشاک رالف لورن به مشتریان کمک میکند براساس ترجیحات شخصی و راهنماهایی در خصوص مد، محصولات مورد نظرشان را پیدا کنند. دستیار رنگسازی بهر (Behr Paint) هم در انتخاب طیفهای رنگی برای پروژههای گوناگون به مشتریان کمک میکند.
قابلیت هوش مصنوعی در خدمات مشتری
حالا شخصیسازی دیگر به متن محدود نمیشود. شرکت سیرا خدمات مشتریان هوشمندش را تلفنی و با تکنولوژی هوش مصنوعی صوتی شبیه به انسان ارائه میدهد. در واقع، برت تیلور، یکی از بنیانگذاران سیرا و رئیس هیاتمدیره اوپن ایآی میگوید در حال حاضر دستیارهای سیرا بیشتر از چتهای متنی، تماسهای تلفنی برندها را مدیریت میکنند.
به عنوان نمونه، شرکت ارائهدهنده وام مسکن «راکت مورگیج» (Rocket Mortgage) از دستیار سیرا برای برقراری حدود یکمیلیون تماس در ماه و پاسخگویی به تعدادی حتی بیش از آن، از دستیار سیرا استفاده میکند که وظایف پشتیبانی سنتی مانند بازیابی رمز عبور و عیبیابی فنی را پوشش میدهد.
تیلور میگوید: «این تکنولوژی در واقع جایگزین سیستم پاسخ تلفن گویای قدیم است، با این تفاوت که میتوانید با آن صحبت کنید.»
بینیازی از آموزش مداوم انبوه نیروهای انسانی به واسطه استفاده از چتباتها، باعث میشود برندها بتوانند هزینههای خود را کاهش دهند.
به گزارش «بلومبرگ»، شرکت «سلز فورس» که بزرگترین ارائهدهنده خدمات ارتباط با مشتری در دنیاست، ادعا میکند با استفاده از دستیار هوش مصنوعی خود در بخش خدمات مشتری، سالانه ۱۰۰میلیون دلار صرفهجویی میکند. شرکت تکنولوژی مالی «کلارنا» هم اخیرا اعلام کرده که دستیار هوش مصنوعیاش معادل ۸۵۳ کارمند تماموقت فعالیت میکند. این شرکت پیشتر به دلیل تعدیل نیروهای واحد خدمات مشتریان مورد انتقاد قرار گرفته بود، اما مدتی بعد دوباره مجبور به استخدام نیرو شد، چون متوجه شد هوش مصنوعی باید با کمک انسان تقویت شود. در واقع، هوش مصنوعی هنوز تا اتوماسیون کامل خدمات مشتریان راه زیادی دارد. طبق تخمین شرکت تکنولوژی «لایوپرسن»، تکنولوژی فعلی میتواند حدود ۴۵ درصد از تعاملات مشتری را مدیریت کند. برای باقی تعاملات، دستیارها آموزش دیدهاند وظایف را به یک انسان واقعی بسپارند.
ریسک برندها و روشهای پیشگیری
درست است که مدلهای زبانی بزرگ پیشرفت کردهاند اما همچنان میل به توهم زدن یا ساخت اطلاعات نادرست در آنها وجود دارد. این افزایش خطا میتواند روی برندها هم تاثیر بگذارد. هر زمان که یک ارائهدهنده هوش مصنوعی مدل جدیدی را منتشر میکند، آسیبهای احتمالیاش میتواند در تمام دستیارهای برندهایی که بر پایه آن ساخته شدهاند هم وجود داشته باشد.
اشتباهات کوچکتر میتواند در قالب ارائه اطلاعات نادرست به مشتریان درباره موجودی محصول یا سیاستهای شرکت ظاهر شود، اما همین موارد هم میتوانند آسیبهای جدی به برندها وارد کنند. اوایل امسال، یک اشتباه فاحش چتبات پلتفرم نرمافزاری «کرسر» (Cursor) باعث شد کاربران اعلام کنند دیگر از این پلتفرم استفاده نخواهند کرد و توجه رسانهای منفی گستردهای ایجاد شد.
مهمترین ابزاری که یک برند برای محافظت در برابر توهمات هوش مصنوعی در اختیار دارد، ایجاد چارچوبهای حفاظتی محکم است که در بیشتر مواقع ارائهدهندگان هوش مصنوعی مسوول این کار خواهند بود، چون جنبههای فنی را بهتر از برندها درک میکنند. تیلور میگوید هدف، یافتن تعادل بین سطح اختیار دستیار و محدودیتهای آن است. او معتقد است با اختیار بیش از حد، دستیارها مستعد اغراق و توهم میشوند، اما با محدودیتهای زیاد هم نمیتوانند تجربیات غنی و شخصیسازیشدهای در اختیار مشتریان قرار دهند.
از سوی دیگر، اگرچه محدودیتها را ارائهدهندگان تعیین میکنند، اما برندها همچنان باید با دقت نظارت کنند تا مطمئن شوند شرکای مسوولی داشته باشند. یکی از روشهای این نظارت شامل پرسش از ارائهدهندگان درباره موارد قبلی خطای دستیارهایشان و چگونگی فرآیند اصلاح آنهاست. همچنین هر برندی باید از متخصصان تکنولوژی اطلاعات خود بخواهد تا جزئیات تکنولوژی و پروتکلهای امنیتی ارائهدهنده را بررسی کنند.
یکی از ملزومات همکاری شرکتهای ارائهدهنده و برندها تاکید بر شفافیت است. اگر ارائهدهندهای با گفتن اینکه این تکنولوژی انحصاری است از ارائه توضیحات شفاف خودداری کرد، حتی یک لحظه هم درنگ نکنید و بلافاصله از آنها فاصله بگیرید.
یکی دیگر از اقدامات حفاظتی، داشتن پروتکل برای زمانی است که اوضاع خراب میشود. «آرون کویتکن»، مدیر جهانی هوش مصنوعی و نوآوری در شرکت استراتژی «افجیاس گلوبال» (FGS Global)، معتقد است برندها باید همیشه نیروی انسانی را کنار دستیارهای خود داشته باشند تا تعاملات مشتری را زیر نظر بگیرد و در صورت اشتباه هوش مصنوعی، بلافاصله وارد عمل شود.
این موضوع برای جلوگیری از تبدیل شدن یک لغزش ساده به یک فاجعه روابط عمومی اهمیت ویژهای دارد، چون مصرفکنندگان ناراضی میتوانند به کمک رسانههای اجتماعی اشتباهات برندها را بزرگنمایی کنند. هوش مصنوعی برای بسیاری از افراد موضوع حساسی است و همین باعث میشود شکست تلاشهای مرتبط با هوش مصنوعی برای برندها، بسیار پرریسک و حتی گاهی فاجعهبار باشد. به گفته کویتکن، در واقع ممکن است منتقدان افراطی هوش مصنوعی دنبال رسوا کردن برندهایی باشند که از این تکنولوژی به شکلی ناشیانه استفاده میکنند. کویتکن میگوید: «انسان میتواند بسیار بدبین باشد و همیشه به دنبال ایرادگیری است.»