تبعیض نژادی تکنولوژیک ممنوع
سیستمهای نوین نیازی ندارند که برای انجام پردازشها و احتمالات خود به نژاد افراد توجه کنند و این عدم توجه به نژاد افراد، میتواند برای افراد رنگینپوست مسالهساز شود. شاید در نظر اول، صرفنظر از ویژگیهای متفاوت ظاهری و نژادی، نقطه مثبت تکنولوژی محسوبشود، اما با پیشرفت تکنولوژی و تلفیق عمیق آن با زندگی مردم، اشکالات کمکم آشکار میشود. اشتباهاتی که سیستمهای آموزش داده مجهز به هوش مصنوعی در رابطه با افراد رنگینپوست انجام میدهد، همین حالا نیز مسالهساز شده است، مثلا سابقه دارد که نرمافزار تشخیص چهره در هنگام شناسایی شهروندان سیاهپوست با ایراد روبهرو شود. سال گذشتهACLU آزمایشی روی نرمافزار تشخیص چهره آمازون انجام داد که در آن ۴۰ درصد از چهره اکثر افرادی که به درستی شناسایی نشده بود، به افراد سیاهپوست تعلق داشت. آمازون با بیش از ۴۰۰ شعبه از نیروهای پلیس آمریکا شراکت دارد و این نرمافزار همچنان در این دپارتمان مورد استفاده قرار میگیرد. سیستم بهداشت و درمان آمریکا نیز در سالهای اخیر، بهشدت میزان استفاده از الگوریتمهای تکنولوژیک تشخیصی و درمانی را افزایش داده است.
۴۰ درصد از شهروندان آمریکا تحتنژاد «غیرسفید» دستهبندی شدهاند، اما ۸۰ تا ۹۰ درصد افرادی که برای طرحهای آزمایشی کلینیکی این سیستمها مراجعه کردهاند، سفید بودهاند. در چنین شرایطی، بروز اشتباه در تشخیص بیماریها میتواند به قیمت جان افراد تمام شود. پیشبینی شده است که در آمریکا تا سال ۲۰۴۵ تعداد افراد رنگینپوست نسبت به افراد سفیدپوست بیشتر شود. به علاوه تخمین زده شده است که تا سال ۲۰۵۰، ۵۰ درصد منشا افزایش جمعیت کره زمین از آفریقا ریشه میگیرد. براساس تحقیق Pew Research Center، تعداد افراد بالغ سیاهپوست و اسپانیایی تبار که از اینستاگرام، توییتر، واتساپ، اسنپچت و یوتیوب استفاده میکنند، از تعداد کاربران با نژاد Caucasians یا سفیدپوستها بیشتر است. فیسبوک صاحب سه پلتفرم پرطرفدار اجتماعی در دنیای اینترنت است که اکثر کاربران آنها رنگینپوستها هستند.
این واقعیت نشان از قدرت بسیار زیادی دارد. در نظر بگیرید که رشد سالانه تلفیق هوش مصنوعی در زندگی مردم، ۳۷ درصد است و تحت چنین شرایطی، بروز تبعیضنژادی میتواند چالش و مشکل بسیار بزرگی را در سطح جهانی ایجاد کند. پس فیسبوک میتواند بهعنوان پیشگام، در این زمینه قدمهای بسیار کارآمدی بردارد. یک راهحل کاربردی برای حل این مساله میتواند ویرایش الگوریتمی باشد. محققان باید مساله نژادها را نیز در سیستم الگوریتمهای خود بازنگری کرده و دوباره تعریف کنند. در واقع باید شرایطی مهیا شود که به تکنولوژی آموزش داد، تا افرادی را که خود قربانی نژادپرستی شدهاند بار دیگر با این معضل روبهرو نکند. «یووال نوح هراری» میگوید: «کسانی که کنترل دادهها را در دست دارند، کنترل آینده را نیز در دست خواهند داشت.» نسخه هوش مصنوعی که امروز در حال توسعه است، زیرساختی برای نسخه آینده این تکنولوژی رو به پیشرفت محسوب میشود. پس شرکتهای فعال در این زمینه موظفند که چنین واقعیت حیاتی را خیلی زود مدنظر قرار داده و در جهت رفع نقایص آن اقدام کنند.
ارسال نظر