چگونه مقررات جدید اروپا رابطه منابع انسانی با هوش مصنوعی را تغییر میدهد
پیشنهاد برای مقررات هوش مصنوعی: پیشنهاد کمیسیون اروپا برای تنظیم استفاده از هوش مصنوعی شامل جریمه بزرگ معادل ۶درصد از گردش مالی جهانی یک شرکت در صورت عدم کشف ناسازگاری جدی است. این پیشنهاد بسیاری از قوانین و ممنوعیتها را درباره نرمافزار «هوش مصنوعی با ریسک بالا» یا نرمافزاری که هنگام پردازش دادههای شخصی از هوش مصنوعی استفاده میکند، شرح میدهد. این مقررات مسوولیت را بر دوش کاربران و ارائهدهندگان نرمافزار مبتنی بر هوش مصنوعی قرار میدهد. به این معنی که هردو در صورت نقض دادهها یا تلاش برای هک آن مسوول هستند. این یک موضوع حساس به ویژه از سال۲۰۲۱ است، سالی که شاهد افزایش چشمگیر دیجیتالی شدن محل کار بوده است. با همهگیری و مجبور شدن بیشتر شرکتها به انتخاب گزینه کار از راه دور، بسیاری از واحدهای منابع انسانی شروع به تکیه بر نرمافزار مشارکتی مبتنی بر رایانش ابری با کیفیت بالا کردهاند که ویژگیهای مهمی مانند به روزرسانی وضعیت پروژه در زمان واقعی و کنترل دسترسی را فراهم میکند. فرآیندهای کارمندیابی و استخدام کاملا دیجیتالیزه شدند تا تمرکز روی مصاحبههای شغلی، رزومه دیجیتالی و فرآیندهای پردازش مجازی امکانپذیر شود. اگرچه نرمافزارها میتوانند ارتباط، همکاری و سازماندهی را بسیار آسان کنند، اما امکان به وجود آمدن تعصب بیشتر در استخدام و نیز خطر از دست دادن کنترل اطلاعات حساس، میتواند سازمانها را در یک نقطه دشوار قرار دهد. در همین راستا شرکتها نیاز خواهند داشت تا مقررات جامع و کنترل مدیریت ریسک داشته باشند تا بر اساس آن شناخت کافی از مجموعه این قوانین جدید داشته باشند.
مسائل مربوط به انطباق: از ارائهدهندگان نرمافزار انتظار میرود نرمافزاری بسازند که از نظر سایبری ایمن باشد و تمام اقدامات احتیاطی لازم را برای محافظت از دادههای کاربر انجام دهد. با وجود این، مسوولیت به اینجا ختم نمیشود. شرکتهایی که از این نرمافزار استفاده میکنند، در صورت عدم نظارت و پایبندی به دستورالعملهای عملیاتی که برای حفظ امنیت دادهها از طریق ارائهکنندگان نرمافزار به آنها ارائه میشود، از نظر قانونی نیز مسوولیت دارند. و چالشهای زیادی وجود دارد که شرکتها در انطباق با این مقررات با آن روبهرو هستند.
افزایش استخدام از راه دور: با در دسترس بودن بسیاری از نرمافزارهای منحصر به فرد منابع انسانی مبتنی بر هوش مصنوعی و تکنولوژی جدید که هر روز توسعه پیدا میکنند، برای سازمانها چالش بزرگی خواهد بود تا بهطور کامل درک کنند چه کاری باید برای سازگاری با آنها انجام دهند. مراحل مورد نیاز برای اثبات انطباق برای آنهایی که نرمافزارهای مبتنی بر هوش مصنوعی را طراحی و استفاده میکنند مورد به مورد تعیین میشود و این امر درک این نکته را که دقیقا برای پیروی از دستورالعملهای جدید چه کاری باید انجام شود دشوار میکند. علاوه بر این، با توسعه فناوری سریعا شکننده درک این مساله دشوار است که چگونه نهادهای قانونی سنتی در زمان تغییر موضع خود را حفظ خواهند کرد.
ریسک بالا در مقابل ریسک پایین هوش مصنوعی: کمیسیون اروپا در تلاش برای تنظیم حوزه وسیعی از تکنولوژی مانند هوش مصنوعی، در مقررات پیشنهادی خود تفاوت بین هوش مصنوعی با «ریسک بالا» و «ریسک پایین» را شناسایی میکند که در این مورد آخری هوش مصنوعی بهطور مستقیم دادههای حساس را کنترل نمیکند. برای نرمافزار هوش مصنوعی «کمخطر»، استانداردهای نظارتی خیلی سختگیرانه نیستند. به عنوان مثال، شرکتها موظف هستند به کاربران اطلاع دهند که آیا با یک نرمافزار مبتنی بر هوش مصنوعی مانند چتبات تعامل دارند اما نیازی به ارائه شفافیت کامل درباره استفاده از الگوریتمها ندارند. با این حال، مقرراتی که برای هوش مصنوعی با خطر بالا در نظر گرفته میشوند سختگیرانهتر هستند و به احتمال زیاد سازمانهای سراسر جهان را تحت تاثیر قرار خواهند داد. این قانون جدید هر نرمافزاری مبتنی بر هوش مصنوعی را که در اروپا استفاده میشود، شامل میشود، حتی اگر شرکت طراحی و فروش نرمافزار در خارج از کشور قرار داشته باشد.
تاثیرات فراتر از اتحادیه اروپا: ما پیامدهای گسترشدهنده قوانینی از این دست را میدانیم زیرا مشاهده کردیم که مقررات حفاظت از دادههای عمومی (GDPR) چگونه بر دیدگاههای شرکتها درباره حریم خصوصی دادهها در سراسر جهان تاثیر گذاشته است. غالبا شرکتهای آمریکایی مقررات جدیدی را که در اروپا وضع میشود مورد توجه قرار میدهند زیرا میدانند که این قوانین ممکن است به چارچوبی برای مقررات آینده در ایالات متحده تبدیل شود. یکی از بزرگترین الزامات GDPR که باعث تشویق قوانین مشابه در سراسر جهان شده است شرایطی است که سازمانهایی که نقض داده را تجربه میکنند حداقل در عرض ۷۲ ساعت از زمان نقض، مشتریان خود را از این امر آگاه کنند. این بخشی از تعهدات اتحادیه اروپا برای توانمندسازی افراد برای کنترل اطلاعات خود است. اتحادیه اروپا تنها نهادی نیست که مقررات مربوط به پیامدهای فناوری پیشرفته را در نظر میگیرد.
حرکت رو به جلو با حریم خصوصی: .بر خلاف مقررات حفاظت از دادههای عمومی (GDPR) کشورها به تنهایی مسوول اجرای قانون جدید در مرزهای خود خواهند بود که سبب سردرگمی در مقررات مبهم پیشنهادی میشود. این نکته بسیار حیاتی خواهد بود که اتحادیه اروپا دقیقا توضیح دهد که کدام سازوکار برای اثبات انطباق با مقررات جدید هوش مصنوعی مورد نیاز است که به مقامات بینالمللی این امکان را میدهد که قوانین جدید دولت را بشناسند و بهطور کامل با آنها همکاری کنند. به هر حال هوش مصنوعی پیش از این هم از سوء تفاهمات و شایعات مربوط به پذیرش و پتانسیل آن رنج برده است و هر مجموعه قانونی درباره این موضوع باید تلاش کند تا آنچه هوش مصنوعی است را روشن کند. این پیشنهاد جدید توسط شورا و پارلمان اروپا مورد بحث و بررسی قرار خواهد گرفت، که امیدوارم جنبههای مبهم قانون جدید و اینکه چگونه سازمانها میتوانند تمام تلاش خود را برای پیروی از قانون انجام دهند، روشن شود. در ضمن برخی شرکتها برای سازگار شدن با مقررات و آنچه میتواند برای شرکت آنها حرکت روبه جلو باشد مبارزه میکنند
البته مقررات جدید هنوز در قانون گنجانده نشدهاند و روشن است که بسیاری از تردیدها باید قبل از تصویب، برطرف شوند. این موارد زمانبر است. مقررات حفاظت از دادههای عمومی هم در سال ۲۰۱۶ تصویب شد اما در واقع تا سال ۲۰۱۸ اجرایی نشد.
اتحادیه اروپا پیشرو در تنظیم قوانین فناوری و حفظ حریم خصوصی دادهها بوده است و این احتمال وجود دارد که در سالهای آینده آنها به الهام بخشیدن به سایر کشورها با استفاده از قوانین خود ادامه دهند. با این حال، برای سازمانها و دپارتمانهای منابع انسانی آنها مهم است تا از آگاهی کافی برخوردار باشند و همچنین بتوانند الزامات را افزایش داده و حفظ کنند و در کنار تحول سریع دیجیتال که با تصویب هوش مصنوعی همراه خواهد بود، از انطباق صحیح با حریم خصوصی دادهها برخوردار باشند.