مشتریان راضی نیستند که شرکتها بدون اطلاع آنها از روباتهای هوش مصنوعی استفاده کنند
در استفاده از هوش مصنوعی اخلاق را رعایت کنید
در عصر دیجیتال کنونی، نوآوریهایی مانند هوش مصنوعی به شدت فضای کسب و کار را دگرگون کرده است. در هر گروه و فضایی میتوانید افراد فراوانی را مشاهده کنید که در حال صحبت درباره قابلیتهای چنین فناوریهایی هستند یا هماکنون نیز بخش زیادی از وظایف کاری خود را با آنها انجام میدهند. هوش مصنوعی برای کسب و کارها نیز کاربردهای فراوانی دارد. به عنوان مثال، به وسیله روباتهای گفتوگو با مشتریان، میتوان به طور همزمان به نیازهای تعداد بسیار بیشتری از مشتریان رسیدگی کرد، هزینه پشتیبانی را کاهش داد و خدمات را همسانتر کرد. با این حال، در میان تمام این مزایا، تنگنایی اخلاقی نهفته است.
مشتریان شیفته تعاملات انسانی صادقانه هستند و زمانی که متوجه شوند به برخی پیامها و تماسهای آنها روباتها به جای انسان پاسخ میدهند، بهسرعت دلسرد خواهند شد. ایجاد توازن بین میل به اصالت و وسوسههای فناوری و صرفههای اقتصادی آن، دشوار است و شاید برخی کسب و کارها را به سمت فریب مشتریانشان سوق دهد.
شرایط از آنجا پیچیدهتر شده است که اکنون بسیاری از ابزارهای هوش مصنوعی شباهت بیشتری به انسان پیدا کردهاند. این شرایط، وسوسه استخدام روباتها و هوش مصنوعی به جای انسان را ایجاد کرده است. البته به راحتی نمیتوان چنین تصمیمی اتخاذ کرد. به هر حال، مشتریان تعاملات انسانی را ترجیح میدهند و اگر شرکتی بخواهد در حوزههایی مانند خدمات پشتیبانی مشتریان از روباتهای گفتوگو استفاده کند، این کار را باید به شکلی انجام دهد که مشتریان متوجه آن نشوند.
مشکل استفاده از روباتهای گفتوگو بدون افشای آن برای مشتریان چیست؟ زمانی که مشتریان از این اقدام فریبنده مطلع شوند، چه اتفاقی برای اعتبار شرکت میافتد؟ مهمتر آنکه چه اتفاقی برای کارکنان آن شرکت میافتد؟ تاکنون چند شرکت بزرگ فناوری با پیامدهای اینگونه استفاده غیراخلاقی از فناوریهای نوظهور مواجه شدهاند.
برای درک بهتر، به مثال شرکت فناوریهای پزشکی ترانوس (Theranos) توجه کنید. این شرکت رسوایی بزرگی بابت کلاهبرداری و سوءرفتار تجربه کرد. در حالی که شرکت و مدیرانش درگیر اتهامات و پروندههای قضایی مختلف شدند، کارکنان آنها نیز آسیب دیدند.
بسیاری از کارکنان شرکت اعلام کردند که به سختی شرکتهای دیگر حاضر به استخدام آنها میشوند و کارفرمایان بالقوه به آنها اعتماد نمیکنند. از آنجا که شرکتها در مقابل کارکنان خود مسوولیت دارند، پیش از تصمیمگیری برای هرگونه استفاده غیرشفاف از فناوریها، باید پیامدهای احتمالی آن بر اعتبار و آینده کارکنانشان را هم در نظر بگیرند. ما برای درک پیامدهای رفتار غیرشفاف شرکتها بر آینده شغلی کارکنانشان، چند پژوهش و مطالعه میدانی داشتهایم.
اثر دومینویی بر آینده شغلی
نخستین یافته ما، جای تعجب ندارد. مشتریان، شرکتهایی را که بدون شفافیت و اطلاع آنها از روبات و هوش مصنوعی استفاده میکنند، چندان شرکتهای اخلاقمداری نمیدانند. واضح است که اگر به بیاخلاقی در استفاده از فناوریهای جدید شهرت یابید، وجهه اجتماعیتان بهشدت آسیب میبیند. مساله این است که تصور افکار عمومی از چنین شرکتی چه میشود؟ تجربه اوبر میتواند ما را برای پاسخ دادن به این پرسش راهنمایی کند. رسوایی این شرکت تاکسی اینترنتی آمریکایی در سرکوب اتهامات آزار جنسی، به شدت وجهه عمومی این شرکت را مخدوش کرد.
واکنشها چنان نسبت به همه کارکنان اوبر منفی شد که حتی کارکنان بیگناه هم از نگاه سرد جامعه مصون نماندند. در نتیجه، بسیاری از آنها تصمیم به استعفا گرفتند.
ما برای اطمینان یافتن از این فرضیه خود، پژوهشهای بسیاری انجام دادیم. در پژوهشهای خود، شبیهسازیهایی انجام دادیم و از کارکنان چند شرکت فرضی خواستیم تا به راهاندازی مخفیانه روباتهای گفتوگو کمک کنند.
هضم این درخواست برای کارکنان دشوار بود و مانند آن بود که اقدامی غیراخلاقی از آنها خواسته شده است. در نتیجه این طرز فکر، بسیاری از آنها خواهان استعفا از شغل خود شدند.
بنابراین، شرکتهایی که وانمود به انسان بودن روباتهای گفتوگویشان میکنند، در چشم مشتریان و همچنین کارکنانشان، شرکتهایی غیراخلاقی به نظر میرسند. مشتریان هیچ وفاداری به آنها نخواهند داشت و کارکنان نیز میل بیشتری به استعفا نشان خواهند داد. اما این کارکنان کجا خواهند رفت؟ آیا آنها به خاطر حضور در بازار کار، آلوده شدهاند؟ بله. به دلیل سرعت بالای انتشار اطلاعات در عصر جاری، هر رفتاری از شرکتها به سرعت برملا میشود و به اعتبار کارکنانشان هم آسیب میزند.
ما در تلاش برای درک بهتر این پدیده، دو پژوهش دیگر هم انجام دادیم. هدف ما بررسی این موضوع بود که کارکنان استعفا داده از چنین شرکتهایی، در چشم کارفرمای بعدی چگونه به نظر میرسند.
نتایج پژوهشها نشان داد که متقاضیان شغلی که سابقه کار در شرکتهایی با روبات گفتوگوی مخفیانه دارند، چندان قادر به جلب اعتماد تصمیمگیرندگان فرآیندهای استخدامی نیستند.
در نتیجه به ندرت شغل جدیدی در شرکتهای دیگر به آنها پیشنهاد میشود و حتی در صورت پیشنهاد شغل، حقوق کمتری به آنها تعلق میگیرد.
از اینرو، استفاده فریبکارانه از روباتهای گفتوگو، پیامدهای بسیار گستردهای به جای میگذارد. چنین اقدامی نه تنها به شرکت آسیب میزند، بلکه بر سرنوشت تمام افراد شاغل در آن شرکت نیز اثر منفی میگذارد.
مسوولیت متخصصان فناوری
وضعیت روشن است. متخصصان فناوری باید طلایهداران استفاده اخلاقی از هوش مصنوعی باشند. ما نمیتوانیم اثرات اجتماعی گسترده اختراعات خود را نادیده بگیریم. اگر با شفافیت کار کنید و به اصول اخلاقی پایبند باشید، نهتنها به اعتبار و وجهه عمومی شرکتهایتان کمک خواهید کرد، بلکه جایگاه حرفهای خود را هم تحکیم خواهید کرد. یافتههای پژوهشهای ما، دو درس کاربردی مهم در خود دارند:
۱- نقش رهبران سازمانی
رهبران سازمانی باید متوجه آسیبهای ماندگار رفتارهای فریبکارانه در قبال مشتریان باشند. استفاده اخلاقی از فناوریها میتواند شهرت شرکت، روحیه کارکنان و اعتماد مشتریان را تقویت کند.
۲- نقش کارکنان
کارکنان نیز باید انفعال و بیتفاوتی را کنار بگذارند. شیوه فعالیت شرکت نه تنها مسوولیتی اخلاقی برای آنها دارد، بلکه بر سرنوشت و آینده شغلیشان اثر میگذارد. به همین دلیل توصیه میشود که کارکنان، فعالانه از نگرانیهای خود درباره استفاده غیراخلاقی فناوریها سخن بگویند.
در صورتی هم که شرکت آنها رفتارش را اصلاح نکرد، پیش از برملا شدن داستان، استعفا دهند. نگرانیها را به شیوههای مختلفی میتوان بیان کرد: در نامههای بینام، در جلسات خصوصی با مدیر، به طور علنی در جلسات تیم یا گردهماییهای سازمانی. هرکدام از این روشها مزیتهای خاص خود را دارند و باید مدنظر قرار گیرند (هرچند شاید بهتر باشد ابتدا روشهای سادهتر و سریعتر ابراز نگرانی در نظر گرفته شوند.)
در جمعبندی مباحث این مقاله، باید گفت که به موازات افزایش کاربرد هوش مصنوعی در کسب و کارها، استفاده اخلاقی از آنها اهمیت بیشتری مییابد. بحث ما بر سر سودآوری شرکت نیست، بلکه پای آینده شغلی و اعتبار تمام افراد، به عنوان تشکیلدهندگان سازمان در میان است. اولویت دادن به اخلاقیات در استفاده از هوش مصنوعی، تنها یک توصیه کسب و کاری نیست، بلکه یک الزام شغلی است.
منبع: European Business Review