خطرهای هوش مصنوعی؛ نزدیک تر از قبل
هوش مصنوعی چگونه میتواند خطرناک باشد؟
این فناوری روزبهروز پیچیدهتر میشود و همین پیشرفت میتواند منجر به بروز خطرات مختلفی ازجمله موارد ساده (اختلال در کار) تا خطرات فاجعهبار شود. با توجه به اختلافنظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات آنهم یک دیدگاه مشترک و جامع دیده نمیشود. عموماً تصور میشود که هوش مصنوعی از دو طریق میتواند خطرناک باشد:۱- این فناوری برای انجام کاری مخرب برنامهریزی شود. ۲- این فناوری برای مفید بودن برنامهریزی شود اما در حین رسیدن به هدف خود، کار مخربی انجام دهد.
سلاحهای هوشمند
این ریسکها با پیچیدگی نرمافزار هوش مصنوعی تقویت میشوند. سالها قبل یکی از فیلسوفهای مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آنیک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او میگوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی بهاندازه کافی باهوش باشد، میتواند کل دنیا را برای رسیدن به این هدف نابود کند. اما بهغیراز این خطرات فاجعه آور که به نظر نمیرسد در آیندهی نزدیک تحقق پیدا کنند، میتوانیم به ۵ خطر فوری اشارهکنیم که میتوانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.
۱. خودکارسازی شغلها: خودکارسازی یا خودکارسازی ازجمله مهمترین خطرات هوش مصنوعی برای شغلهای مختلف است. از کارخانهها گرفته تا اتومبیلهای خودکار، آغاز خودکارسازی به دههها قبل برمیگردد ولی روزبهروز شتاب آن بیشتر میشود.
مساله این است که برای بسیاری از کارهای مختلف، سیستمهای هوش مصنوعی نسبت به انسانها عملکرد بهتری دارند. رویهمرفته در این موارد ارزانتر، دقیقتر و کارآمدتر از انسانها عمل میکنند. بهعنوانمثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل میکند و حالا این سیستمها درزمینه تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند. از طرف دیگر، وقتیکه هوش مصنوعی بسیاری از شغلها را تصرف کند، بخش بزرگی از کارگران که شغل خود را ازدستدادهاند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستمهای هوش مصنوعی، مهارتهای آنها برای انجام کارهای مختلف بهتر از انسانها خواهد شد و اختلال در کار هم میتواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعهی اقتصادی شود.
۲. امنیت و حریم خصوصی: مشکل اصلی این است که با افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، تدابیر پیشگیری با استفاده از هوش مصنوعی هم افزایش پیدا میکنند. این مشکل همچنین این سوال را مطرح میکند که ما چگونه سیستمهای هوش مصنوعی را ایمن میکنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم. درزمینهی حریم خصوصی هم شرکتهای بزرگ طی چند سال گذشته در این زمینه تا حد قابلتوجهی زیر تیغ دولتها و نهادهای نظارتی قرارگرفتهاند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند. از دیگر نگرانیها میتوانیم به تکنولوژیهای تشخیص چهره اشارهکنیم و گزارشها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند. چنین فنّاوریهایی میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.
۳. بدافزار هوش مصنوعی: هوش مصنوعی بهطور فزایندهای در هک کردن سیستمهای امنیتی و شکستن رمزگذاریهای مختلف بهتر میشود. بخشی از این موضوع به تکامل الگوریتمهای یادگیری ماشینی برمیگردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمونوخطا بهتر میشود و با گذر زمان خطر آنهم افزایش پیدا میکند.
برخی فناوریهای هوشمند (مانند اتومبیلهای خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا میتوانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورداستفاده قرار بگیرند. با افزایش وابستگی ما به فناوریهای هوشمند متکی به اینترنت، زندگی روزمرهی ما هم بیشازپیش تحت تأثیر خطر اختلال قرار میگیرد.
۴. سلاحهای خودمختار: سلاحهای خودمختار- سلاحهایی که بهجای انسانها توسط سیستمهای هوش مصنوعی کنترل میشوند-مدتهاست که انجاموظیفه میکنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشارهکنیم که از سازمان ملل خواستهاند تا راهی برای حفاظت از بشریت در برابر سلاحهای مستقل ایجاد کند. نیروهای نظامی کشورهای مختلف در حال حاضر به سلاحهای مبتنی بر هوش مصنوعی یا سلاحهایی که تا حدی به این سیستمها متکی هستند، دسترسی دارند. بهعنوانمثال میتوانیم به پهپادهای نظامی اشارهکنیم که مثلا با بهرهگیری از سیستمهای تشخیص چهره میتوانند یک فرد را با دقت زیادی ردیابی کنند. اما وقتیکه به الگوریتمهای هوش مصنوعی اجازه دهیم بدون دخالت انسان در مورد مرگ وزندگی تصمیمگیری کنند، چه اتفاقی میافتد؟ چنین قابلیتهایی میتوانند تبعات فاجعهباری به همراه داشته باشند.
۵. دیپفیک و اخبار جعلی: تکنولوژی دیپفیک روزبهروز پیشرفتهتر میشود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورداستفاده قرار میگیرد اما همین حالا هم برخی کلاهبرداران با استفاده از تصویر پروفایل افراد معمولی در شبکههای اجتماعی ویدیوهای جعلی از آنها درست میکنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیهسازی صدا هم اشارهکنیم که میتوانند تأثیر زیادی بر جامعه داشته باشند.