دارون عجم اوغلو نویسنده کتاب «چرا کشورها شکست میخورند؟» هشدار داد
تهدید دموکراسی با هوش مصنوعی
یک پیشنهاد معقول این است که ثبت اختراعات در حوزه فناوریهای نظارتی محدود شود تا از توسعه و استفاده بیش از حد آن جلوگیری به عمل آید. اگر همه چیز برابر باشد، امکان دور کردن فناوریهای مرتبط با هوش مصنوعی از برنامههای نظارتی، وجود خواهد داشت. با وجود این، جهان بین کشورهای دارای پروتکلهای موثر نظارت و کشورهایی که به آن پروتکلها پایبند نیستند و از آن پیروی نمیکنند، تقسیم خواهد شد. بنابراین ما باید مبنای مشروع تجارت بین این بلوکهای نوظهور را در نظر بگیریم. قابلیتهای هوش مصنوعی در ۱۸ماه گذشته با پیشرفت همراه بودهاند و بعید به نظر میرسد که سرعت توسعه آن کُند شود. انتشار عمومی چت جیپیتی (Chat GPT) در نوامبر۲۰۲۲ میلادی نقطه عطفی در عرصه هوش مصنوعی مولد بود و در سراسر جهان طنینانداز شد. با این وجود، رشد سریع در قابلیتهای نظارتی دولتها و شرکتها از اهمیت مشابهی برخوردار بوده است.
ازآنجاکه هوش مصنوعی مولد در تطابق الگوها برتر است تشخیص چهره را بهطرز قابل توجهی دقیق کرده است. البته دارای برخی نقصهای اساسی نیز بوده است. چنین نظارتی از نظر فنی منجر به «بهرهوری بالاتر» میشود؛ به این معنا که توانایی مقامها را برای وادار کردن افراد به انجام کاری که قرار است انجام دهند، افزایش میدهد. برای شرکتها این به معنای انجام کارهایی است که مدیریت آن را بالاترین سطح بهرهوری میداند. برای یک دولت این به معنای اجرای قانون یا کسب اطمینان از تبعیت افراد از قدرت است. متاسفانه تجربه هزارساله نشان داده است که افزایش بهرهوری لزوما منجر به بهبود در رفاه همگانی نمیشود. نظارت امروزی مبتنی بر هوش مصنوعی، به رهبران سیاسی خودکامه و مدیران مستبد اجازه میدهد تا قوانین خود را بهطور موثرتری اجرا کنند.
با این وجود، بهرغم آنکه بهرهوری ممکن است افزایش یابد، اکثر افراد از این وضعیت سودی نخواهند برد. این صرفا حدس و گمانهزنی نیست. شرکتها در حال حاضر از روشهای نظارتی تقویتشده با هوش مصنوعی برای نظارت بر حرکت کارکنان خود استفاده میکنند. برای مثال، آمازون از کارکنان بخش تحویل کالای خود خواسته تا اپلیکیشنی را دانلود کنند که به مامور رساندن کالا امتیاز داده و این کار را ظاهرا با عنوان و بهانه ایمنی کارکنان انجام میدهد. برخی از ماموران تحویل کالا گزارش دادهاند که حتی زمانی که در ساعات کاری به سر نمیبرند، توسط آن اپلیکیشن ردیابی میشوند.
شرکت مشاوره «گارتنر» تخمین میزند که سهم کارفرمایان بزرگ در استفاده از ابزارهای دیجیتالی برای ردیابی کارکنانشان از زمان آغاز پاندمی کووید-۱۹ به این سو به میزان ۶۰درصد افزایش یافته است و پیشبینی میشود طی سهسال آینده افزایشی ۷۰درصدی داشته باشد. این در حالی است که شواهد موجود نشان میدهند نظارت بیشتر با رضایت شغلی پایینتر ارتباط دارد و حتی بسیاری از کارفرمایان موافق این نظر هستند که نظارت بر کارکنانشان باعث افزایش «نگرانیهای اخلاقی» شده است. درست است فناوری نظارت ذاتا ضد انسانی نیست. فناوری میتواند ایمنی را بهبود بخشد (مانند نظارت بر تیراندازهای فعال). باوجوداین، ما باید تعادلی مناسب بین این مزایا و حریم خصوصی برقرار کنیم و باید هر کاری که میتوانیم انجام دهیم تا اطمینان حاصل شود که فناوری مبتنی بر هوش مصنوعی کارکردی مغرضانه نخواهد داشت (مانند قضاوت براساس رنگ پوست یا جنسیت افراد).
مقابله با این موضوعات به هنجارهای بین المللی و همکاری جدید نیاز دارد. هر فناوری مبتنی بر هوش مصنوعی که برای ردیابی یا مجازات کارکنان مورد استفاده قرار میگیرد باید با شفافیت کامل همراه باشد. اگر صرفا به این خاطر که یک فناوری مبتنی بر هوش مصنوعی رفتار شما را مشکلسازقلمداد کرده از محل کارتان اخراج شدهاید، باید بتوانید این تصمیم را به چالش بکشید. باوجوداین، ازآنجاکه بسیاری از دستگاههای مبتنی بر فناوری هوش مصنوعی جدید «جعبههای سیاه» محسوب میشوند که حتی توسعهدهندگانشان نیز درک کاملی از آن ندارند. این وضعیت یک انتخاب اقتصادی بزرگ را پیش روی دموکراسیهای جهان قرار خواهد داد اینکه آیا باید به خرید کالا از کشورهایی که کارگران مشمول فناوریهای نظارتی هستند ادامه دهیم؟ ادامه چنین تجارتی و خرید کالا از آن کشورها نظارت و سرکوب بیشتر توسط رژیمهایی را که به دنبال تضعیف دموکراسی هستند، تقویت خواهد کرد.