آیا بقای بشریت در خطر است؟
جهانی تازه زیر چتر هوش مصنوعی
هوش مصنوعی در ارتش
بسیاری از شما داستانهای مربوط به بهکارگیری هوش مصنوعی را در فیلمهای جنگی مانند War Game که در آن از این تکنولوژی در ارتش استفاده شده بود، دیدهاید که البته در این فیلمها از بهکارگیری هوشمصنوعی بهعنوان یک اشتباه بزرگ یاد میشود. «نیل فریز» در دهه ۸۰ میلادی مقالهای درباره بهکارگیری شبکههای عصبی هوش مصنوعی در جهت تشخیص تانکهای دشمن نوشت که در آن ادوات جنگی با استفاده از دیتاهای ورودی تشخیص تانک از درختان و دیگر اشیای درون صحنه نبرد را آموزش میدیدند. نتیجه آنچه بود؟ شبکه عصبی ادوات نظامی، به اشتباه درختان را به جای تانکها مورد هدف قرار میداد. اما حالا قضیه فرق کرده و پس از گذشت چند دهه از این آزمایش، امروزه میبینیم که صدها ماشین جنگی پیشرفته و البته نابودگر طراحی و ساخته شدهاند که در بسیاری از آنها هوش مصنوعی نقش اساسی ایفا میکند.
روباتهای نابودگر دیگر یک داستان تخیلی نیستند و امروزه به یکی از اخبار روز دنیا تبدیل شدهاند. چین هم از طرف دیگر از کودکان نابغه برای طراحی سلاحهای پیشرفته جنگی استفاده میکند. امروزه آمریکا، چین و برخی دیگر از کشورها در حال توسعه هوش مصنوعی مرگبار هستند. فکر کردن به چیزی خطرناکتر از بمب هستهای کار بسیار دشواری است، اما متاسفانه رهبران برخی کشورها در حال طراحی، آزمایش و اجرای این دسته از سلاحهای نابودگر کشتار جمعی هستند. برای مثال دولت آمریکا با کمک کمپانی مایکروسافت در حال فعالیت و توسعه بخشهای نظامی خود بر پایه جدیدترین تکنولوژیهای روز دنیا از جمله هوش مصنوعی است.
حمله سایبری هوش مصنوعی
آنچه احتمالا شما هم متوجه آن شدهاید این است که در حالی که دنیای امروزی بیشتر به تکنولوژی وابسته است، اما از طرف دیگر کاربردهای نظامی و اجتماعی هوش مصنوعی هم میتواند در زمینه حملات سایبری خطرناک باشد. امروزه بسیاری از ویروسهای کامپیوتری توسط افراد هوشمندی برنامهنویسی میشوند که قادرند ویروس را طوری آموزش بدهند که درون سیستمهای کامپیوتری افراد مختلف دنیا حضور مخفیانه داشته باشند. برای مثال برخی تروجانها در طول ساعات کاری مخفی باقی میمانند و پس از اتمام ساعات کاری وارد عمل میشوند و کسی از حضور آنها باخبر نمیشود. حال اگر این نوع تروجانها و حملات سایبری بتوانند خودشان را آموزش دهند و ارتقا پیدا کنند چه فاجعهای رخ میدهد؟ البته از یک طرف هم هوش مصنوعی میتواند نقش کلیدی برای مقابله با این دسته از حملات اینترنتی و سایبری ایفا کند. البته برای مقابله با حملات سایبری پیشرفته امروزی مطمئنا به سیستمهای امنیت سایبری پیشرفتهتر که به هوش مصنوعی و یادگیری ماشین مجهز هستند نیاز خواهد بود.
دستکاری اخبار و اطلاعات
طی ۱۰ سال آینده مطمئنا پیش خواهد آمد که با جایی تماس بگیرید و نتوانید تشخیص دهید که با انسان واقعی صحبت کردهاید یا یک روبات مجهز به هوش مصنوعی. شاید این حرف عجیب و غیرقابل باور باشد اما تکنولوژی یادگیری ماشین در حال حاضر قادر است ۱۰۰ درصد اخبار جدید روزانه را با صدای کاملا شبیه به افراد واقعی اعلام کند. شکی نیست طی یک دهه آینده یا کمتر شاهد این خواهیم بود که هوش مصنوعی رفتارها و افکار انسانها را مدیریت و جهت دهی میکند. «مت چسن» درباره ظهور تکنولوژی هوش مصنوعی و ابزارهای ارتباطی بر پایه یادگیری ماشین اظهارات جالبی دارد. «تصور کنید جریانهای سیاسی و اجتماعی تاثیرگذار قدرت ۱۰۰ برابری پیدا کنند. با استفاده از پروفایل شما، شناسه آنلاین شما و همچنین استفاده از ابزار ارتباطی بر پایه یادگیری ماشین، هوش مصنوعی قادر خواهد بود بر اساس سلایق شخصی شما و به شکل پروپاگاندا با شما ارتباط برقرار کند.»
تبلیغات سایبری امروزه با گستردگی بالا و با دستکاری اطلاعات از طریق شبکههای اجتماعی و بزرگ دادهها به سرعت در حال پیشرفت است. با افزایش قدرت روزافزون هوش مصنوعی دیگر نمیتوان تشخیص داد که جریانهای فکری امروزی که از اینترنت و شبکههای اجتماعی سرچشمه میگیرند بر پایه افکار عمومی هستند یا توسط همین ابزارهای ارتباطی بر پایه ماشین منتشر شدهاند. در حال حاضر دولت آمریکا اقدامات خود را برای مبارزه با اخبار جعلی و دروغین و اینگونه ابزارها آغاز کرده است، اما هرچه که هوش مصنوعی قدرتمندتر میشود، تشخیص این گونه اخبار و اطلاعات نیز سختتر میشود.
چاره چیست؟
بشر همواره از ناشناختهها ترس داشته است. بهرغم اینکه خطرات این تکنولوژی را در بالا نام بردیم، باید این را هم قبول کنیم هر تکنولوژی خطرات خود را دارد و تنها ممکن است برخی از این تکنولوژیها ریسکهای ناچیزی برای بشریت داشته باشند. در کل با اینکه هوش مصنوعی میتواند خطرات قابل توجهی برای بشریت داشته باشد، اما با آگاهی کامل و اقدامات پیشگیرانه و با استفاده از همین هوش مصنوعی میتوان تا حدود زیادی خطرات احتمالی این پدید را خنثی کرده و از آن در زمینههای بسیار گستردهتری استفاده کرد.
ارسال نظر