هوش مصنوعی چگونه می‌تواند خطرناک باشد؟

این فناوری روزبه‌روز پیچیده‌تر می‌شود و همین پیشرفت می‌تواند منجر به بروز خطرات مختلفی ازجمله موارد ساده (اختلال در کار) تا خطرات فاجعه‌بار شود. با توجه به اختلاف‌نظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات آن‌هم یک دیدگاه مشترک و جامع دیده نمی‌شود. عموماً تصور می‌شود که هوش مصنوعی از دو طریق می‌تواند خطرناک باشد:۱-  این فناوری برای انجام کاری مخرب برنامه‌ریزی شود. ۲-  این فناوری برای مفید بودن برنامه‌ریزی شود اما در حین رسیدن به هدف خود، کار مخربی انجام دهد.

سلاح‌های هوشمند

این ریسک‌ها با پیچیدگی نرم‌افزار هوش مصنوعی تقویت می‌شوند. سال‌ها قبل یکی از فیلسوف‌های مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن‌یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او می‌گوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به‌اندازه‌ کافی باهوش باشد، می‌تواند کل دنیا را برای رسیدن به این هدف نابود کند. اما به‌غیراز این خطرات فاجعه آور که به نظر نمی‌رسد در آینده‌ی نزدیک تحقق پیدا کنند، می‌توانیم به ۵ خطر فوری اشاره‌کنیم که می‌توانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.

۱. خودکارسازی شغل‌ها: خودکارسازی یا خودکارسازی ازجمله مهم‌ترین خطرات هوش مصنوعی برای شغل‌های مختلف است. از کارخانه‌ها گرفته تا اتومبیل‌های خودکار، آغاز خودکارسازی به دهه‌ها قبل برمی‌گردد ولی روزبه‌روز شتاب آن بیشتر می‌شود.

مساله این است که برای بسیاری از کارهای مختلف، سیستم‌های هوش مصنوعی نسبت به انسان‌ها عملکرد بهتری دارند. روی‌هم‌رفته در این موارد ارزان‌تر، دقیق‌تر و کارآمدتر از انسان‌ها عمل می‌کنند. به‌عنوان‌مثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل می‌کند و حالا این سیستم‌ها درزمینه‌ تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند. از طرف دیگر، وقتی‌که هوش مصنوعی بسیاری از شغل‌ها را تصرف کند، بخش بزرگی از کارگران که شغل خود را ازدست‌داده‌اند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستم‌های هوش مصنوعی، مهارت‌های آن‌ها برای انجام کارهای مختلف بهتر از انسان‌ها خواهد شد و اختلال در کار هم می‌تواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعه‌ی اقتصادی شود.

۲. امنیت و حریم خصوصی: مشکل اصلی این است که با افزایش نگرانی‌های امنیتی مبتنی بر هوش مصنوعی، تدابیر پیش‌گیری با استفاده از هوش مصنوعی هم افزایش پیدا می‌کنند. این مشکل همچنین این سوال را مطرح می‌کند که ما چگونه سیستم‌های هوش مصنوعی را ایمن می‌کنیم؟ اگر از الگوریتم‌های هوش مصنوعی برای دفاع در برابر نگرانی‌های امنیتی استفاده می‌کنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی‌ هم اطمینان حاصل کنیم. درزمینه‌ی حریم خصوصی هم شرکت‌های بزرگ طی چند سال گذشته در این زمینه تا حد قابل‌توجهی زیر تیغ دولت‌ها و نهادهای نظارتی قرارگرفته‌اند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد می‌شود و الگوریتم‌های پیشرفته با استفاده از این داده‌ها می‌توانند پروفایل‌های بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند. از دیگر نگرانی‌ها می‌توانیم به تکنولوژی‌های تشخیص چهره اشاره‌کنیم و گزارش‌ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک‌های هوشمند مجهز به نرم‌افزار تشخیص چهره استفاده می‌کنند. چنین فنّاوری‌هایی می‌توانند منجر به گسترش رژیم‌های استبدادی شوند یا اینکه افراد یا گروه‌هایی با اهداف بدخواهانه از آن‌ها سوءاستفاده کنند.

۳. بدافزار هوش مصنوعی: هوش مصنوعی به‌طور فزاینده‌ای در هک کردن سیستم‌های امنیتی و شکستن رمزگذاری‌های مختلف بهتر می‌شود. بخشی از این موضوع به تکامل الگوریتم‌های یادگیری ماشینی برمی‌گردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون‌وخطا بهتر می‌شود و با گذر زمان خطر آن‌هم افزایش پیدا می‌کند.

برخی فناوری‌های هوشمند (مانند اتومبیل‌های خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا می‌توانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورداستفاده قرار بگیرند. با افزایش وابستگی ما به فناوری‌های هوشمند متکی به اینترنت، زندگی روزمره‌ی ما هم بیش‌ازپیش تحت تأثیر خطر اختلال قرار می‌گیرد.

۴. سلاح‌های خودمختار: سلاح‌های خودمختار- سلاح‌هایی که به‌جای انسان‌ها توسط سیستم‌های هوش مصنوعی کنترل می‌شوند-مدت‌هاست که انجام‌وظیفه می‌کنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره‌کنیم که از سازمان ملل خواسته‌اند تا راهی برای حفاظت از بشریت در برابر سلاح‌های مستقل ایجاد کند. نیروهای نظامی کشورهای مختلف در حال حاضر به سلاح‌های مبتنی بر هوش مصنوعی‌ یا سلاح‌هایی که تا حدی به این سیستم‌ها متکی هستند، دسترسی دارند. به‌عنوان‌مثال می‌توانیم به پهپادهای نظامی اشاره‌کنیم که مثلا با بهره‌گیری از سیستم‌های تشخیص چهره می‌توانند یک فرد را با دقت زیادی ردیابی کنند. اما وقتی‌که به الگوریتم‌های هوش مصنوعی‌ اجازه دهیم بدون دخالت انسان در مورد مرگ وزندگی تصمیم‌گیری کنند، چه اتفاقی می‌افتد؟ چنین قابلیت‌هایی می‌توانند تبعات فاجعه‌باری به همراه داشته باشند.

۵. دیپ‌فیک و اخبار جعلی: تکنولوژی دیپ‌فیک روزبه‌روز پیشرفته‌تر می‌شود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورداستفاده قرار می‌گیرد اما همین حالا هم برخی کلاه‌برداران با استفاده از تصویر پروفایل افراد معمولی در شبکه‌های اجتماعی ویدیوهای جعلی از آن‌ها درست می‌کنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی‌ برای ویرایش تصاویر و شبیه‌سازی صدا هم اشاره‌کنیم که می‌توانند تأثیر زیادی بر جامعه داشته باشند.