پیشنهاد راهبرد ملی هوش مصنوعی به ترامپ ارائه شد
طرح آخرالزمانی رئیس پنتاگون
جیمز متیس، وزیر دفاع ایالاتمتحده در یک یادداشت از دونالد ترامپ، رئیسجمهوری این کشور خواسته است تا هرچه زودتر یک راهبرد برای هوش مصنوعی تدوین کند. به نوشته روزنامه نیویورکتایمز، جیمز متیس استدلال کرده است که آمریکا نباید در این زمینه نظارهگر پیشرفت چین و سایر کشورها باشد. او در نهایت نیز به مقاله اخیر هنری کیسینجر، وزیر سابق خارجه آمریکا در مجله آتلانتیک اشاره میکند و خواستار تاسیس کمیسیونی از سوی رئیسجمهوری آمریکا میشود. او همچنین خواستار آن شد که ترامپ به آمریکا این اطمینان را ببخشد که ایالاتمتحده نه تنها در حوزه دفاعی، بلکه برای حوزه تغییر شکل شرایط انسانی نیز دغدغه دارد. متیس همچنین چهار پارگراف از مطلب کیسینجر را عینا به یادداشت ضمیمه میکند و آن را برای ریاستجمهوری آمریکا ارسال میکند. یادداشت متیس که تاکنون از آن گزارشی منتشر نشده بود و توسط نیویورکتایمز مورد بررسی قرار گرفته است، منعکسکننده نگرانی روزافزون مقامات دفاعی آمریکا در حوزه هوش مصنوعی است. مشاوران و برنامهریزان با بررسی تهدیدات بالقوه فکر میکنند که تغییردهنده بازی در جنگهای بعدی هوش مصنوعی باشد. دولت چین سهم هوش مصنوعی را در استراتژی ملی افزایش داده است. سازمانهای علمی و تجاری در چین درخصوص هوش مصنوعی همکاری نزدیکی با ارتش چین دارند. آنها نام این پروژه را «ادغام مدنی و نظامی» نامیدهاند. هنوز تاثیر این یادداشت مشخص نیست.
اگرچه در ماه مه، سه هفته پیش از اینکه یادداشت متیس برای ترامپ فرستاده شود، کاخ سفید اعلام کرده بود که دولت ممکن است کارگروهی برای مطالعات هوش مصنوعی ایجاد کند اما منتقدان میگویند که کاخ سفید هنوز هیچ خط مشی روشنی درباره هوش مصنوعی تعیین نکرده است. مقامات دفتر تعیین خطوط علوم و فناوری در آمریکا که باید نقش رهبری در تعیین یک برنامه کاری برای هوش مصنوعی داشته باشد، میگویند: اولویت توسعه و پژوهش ملی با مطالعات در حوزه هوش مصنوعی بوده و این بخشی از راهبرد امنیت ملی و دفاعی رئیسجمهوری است.
با این وجود به نظر میرسد که پنتاگون راسا خود بهدنبال اهداف جاهطلبانهاش در حوزه هوش مصنوعی است. محققانی بهویژه از سیلیکونولی همکاریهای تنگاتنگی با ارتش آمریکا دارند. در اواخر ماه ژوئن، پنتاگون اعلام کرد که مرکز مشترک هوش مصنوعی را تاسیس کرده است. هنوز مقامات پنتاگون نگفتهاند چند نفر از افراد قرار است در این مرکز مشغول بهکار شوند و پایگاه آن کجاست، درحالی که قرار است از ماه بعد کار خود را آغاز کند. گفته میشود امکان دارد چندین دفتر در سراسر آمریکا پراکنده شود. بنا به گفته کارشناسی که با موضوع آشنا است و خواسته که نامش فاش نشود، وزارت دفاع برای این مرکز درخواست بودجه ۷۵ میلیون دلاری کرده که در مجموع برای ۵ سال ۷/ ۱ میلیارد دلار خواهد بود. اسم این مرکز جیک و راهی برای ارائه تسهیلات به دهها پروژه هوش مصنوعی خواهد بود. در این زمینه نام پروژه «Maven» نیز دیده میشود و این برنامه شامل شناسایی افرادی است که تصویر آنها از سوی پهپادها گرفته میشود و پروژه با همکاری پنتاگون و سیلیکون ولی درحال پیشرفت است. حولوحوش زمان نگارش یادداشت متیس به ترامپ، هزاران نفر از کارکنان گوگل به رفتار این شرکت بهدلیل همکاری و مشارکت در پروژه «Maven» معترض بودند. بعد از اینکه اعتراضها علنی شد، گوگل همکاری با این پروژه را قطع کرد. اعتراضها شاید پنتاگون را شگفتزده کرد، چراکه کمپانیهای بزرگ فناوری جزو مقاطعهکاران قدیمی پنتاگون بهحساب میآیند و مدت زمان زیادی است که پنتاگون و سیلیکون ولی با یکدیگر همکاری میکنند. طنز ماجرا این است که شرکتهای کمی هستند که مایل به همکاری با پنتاگون نیستند و آنها روی پروژهای کار میکنند که «دراپا» نام دارد که روی فناوری خودروهای خودران کار میکنند و کمپانیها قصد دارند این نوع خودروها را تجاریساز کنند. اما در نگاه محققان خلق خودروی روباتیک با خلق اسلحه روباتیک بسیار متفاوت است. آنها نگران هستند اسلحههای روباتیک یک تهدید غیرمعمول برای بشریت باشند. السا کانیا که یکی از کارشناسان خارج از مرکز موسسه امنیت جدید آمریکایی است و درباره خطمشیهای امنیتی درخصوص آمریکا فعالیت میکند، میگوید: این لحظهای منحصربهفرد است و ضد فعالیتهای شدیدی از سوی سیلیکون ولی دیده میشود. او میافزاید: برخی از این شرکتها با موقعیت سیاسی کنار آمدهاند اما دارای نگرانیهای خاص خود در زمینه نظامی شدن این فناوریها نیز هستند.
مقامات مرکز مشترک هوش مصنوعی امیدوارند بهزودی این شکاف بهوجود آمده پر شود. برندن مککورد، یکی از اعضای نیروی دریایی سابق آمریکا و یکی از فعالان عرصه هوش مصنوعی که در این مرکز فعالیت دارد، ماه گذشته در یک جلسه عمومی با فعالان سیلیکون ولی به آنها گفت: یکی از نقاط قوت ما استعدادها و نوآوریهایی است که در بخشخصوصی و موسسات دانشگاهی ما وجود دارد. مرکز ما بهدنبال همکاری بیشتر با فعالان این صنعت و دانشگاهیان است. او افزود: مرکز با نوآوران قدیمی و غیرقدیمی برای مدتهای طولانی است که همکاری دارد، بهعنوان مثال شرکت لاکهید مارتین از شرکای قدیمی پنتاگون بهحساب میآید و سیلیکون ولی نیز از شرکای تازهکار پنتاگون بهحساب میآید. پنتاگون تاکنون درخصوص پروژه «Maven» با شرکت همکاری نزدیک دارد اما امیدوار است که این تعداد را افزون کند و از شرکتهای بیمیل به همکاری کاسته شود. این تابستان، محققان پنتاگون به همراه تعداد اندکی از تاثیرگذاران هوش مصنوعی در سیلیکون ولی روی هوش مصنوعی سریع که تلاش برای بسط این فناوری است، همکاری داشتهاند.
سیستمهای خودران مبتنی بر الگوریتمهایی هستند که میتوانند تشخیص اشیا را بهوسیله تجزیهوتحلیل دادههای وسیع یاد بگیرند. پروژه بسط سریع هوش مصنوعی میتواند سرعت یادگیری هوش مصنوعی را ارتقا دهد. پنتاگون پرچم صلح را در برابر سیلیکون ولی بالا برده است. در عین حال مککورد از مرکز مشترک هوش مصنوعی میگوید که این مرکز اخلاقیات و دغدغههای انسانی را برای پروژههای کوتاهمدت و بلندمدت خود مدنظر قرار میدهد.
سوفی شارلوت فیشر، یک محقق از مرکز مطالعات امنیتی در دانشگاه زوریخ که روی ارتباط دانشگاه و صنایع تحقیق میکند در این خصوص میگوید: «این یک راه سریع برای تشنجزدایی با محققان هوش مصنوعی است.» او میافزاید: درخواستهای آنها باید به روشنی فهمیده شود که توسعه و ارسال فناوریهایی از این دست چه معنایی میتواند داشته باشد. فیشر میگوید: شکاکان میخواهند جزئیات را ببینند. تاکنون طرحها بسیار انتزاعی باقی مانده است. آنها بهدنبال چه سیستمهایی هستند؟ آیا میخواهند سیستمهای تسلیحاتی خود را به هوش مصنوعی وصل کنند؟ رابرت ورک، معاون سابق وزیر دفاع و کسی که روی پروژه «Maven» کار میکند نگران است که معترضان گوگل پروژه را بد فهمیده باشند، درحالیکه هنوز ارتباطی با اتصال آن به سلاحهای مرگبار مطرح نیست و بهطور آشکار گفتهاند که این پروژه در جهت نظامیگری است. او در مصاحبهای که اخیرا داشته، گفته است: نیاز است که یک بحث آشکار درباره هوش مصنوعی داشته باشیم و نظر همه طرفها را بشنویم.
هوش مصنوعی چیست؟
تئوری و توسعه سیستمهای کامپیوتری که قادر به انجام وظایفی باشند که معمولا به هوش انسانی نیاز است، مثل درک تصویری، تشخیص صدا، تصمیمگیری و ترجمه چند زبان. برخی از نظامیها علاقهمند هستند که این هوش را در حوزه نظامی بهکار گیرند اما برخی دانشمندان مانند استیفن هاوکینگ بارها هشدار دادهاند که توسعه هوش مصنوعی میتواند به نابودی دنیا بینجامد، چرا که هوش مصنوعی قادر به تصمیمگیری شخصی است، بدون آنکه مانند انسان دغدغه محذورات اخلاقی را داشته باشد.
استراتژی استراتژیست آمریکایی برای آینده بشریت
هنری کیسینجر، وزیر امورخارجه اسبق آمریکا در آخرین مطلب خود نسبت به تهدیدات هوش مصنوعی برای آینده بشریت هشدار داد. هنری کیسینجر در مطلبی که در مجله آتلانتیک با تیتر آخرالزمان منتشر شده است، میگوید که چطور روشنگری پایان مییابد و هشدار داد که هوش مصنوعی ممکن است جهان را به جایی برساند که در آن انسانها دیگر قادر به فهم هیچ چیزی نباشند و ما باید از همین الان خودمان را برای این خطر آماده کنیم. او این مطلب را با محوریت پرسشهایی نظیر اینکه چه میشود اگر ماشینها ارتباط با یکدیگر را یاد بگیرند و پس از آن شروع به تعیین اهدافی برای خود کنند و اینکه چه میشود اگر آنها به حدی باهوش شوند که تصمیمهایی ماورای ظرفیت ذهن انسان بگیرند، نوشته است. کیسینجر میگوید علاقهاش به بحث هوش مصنوعی و همینطور زنگ خطر درباره این مساله برای او زمانی پدیدار شد که فهمید یک برنامه کامپیوتری توانسته در یک بازی بهنام «Go» که حتی از شطرنج پیچیدهتر است، به تسلط و استادی کامل برسد. چیزی که درباره این ماشین جالب بوده این است که صرفا از طریق تمرین دادن خودش توانسته در این بازی تسلط پیدا کند و بهگونهای رفتار کرده که از اشتباهاتش درس گرفته و بر مبنای آنها الگوریتمهای خودش را باز تعریف کرده و درنهایت مفهوم تمرین باعث تکامل میشود را عملی کرده است.
کیسینجر در این مقاله نوشت: ما در حال تجربه انقلاب تکنولوژیک فراگیر هستیم که هنوز نتوانستهایم بهطور کامل تبعاتش را شناسایی کنیم و ممکن است این انقلاب به جهانی منجر شود که چنان به ماشینهای مبتنی بر اطلاعات و الگوریتم متکی باشد که دیگر در آن خبری از هنجارهای اخلاقی و فلسفی نباشد. کیسینجر این مورد را با ذکر مثال یک اتومبیل خودران مطرح میکند. او میگوید راندن یک خودرو نیازمند قوه قضاوت برای شرایط غیرقابل پیشبینی است. او میپرسد اگر چنین خودرویی در موقعیتی قرار بگیرد که مجبور به تصمیمگیری کشتن پدربزرگ یا کشتن یک کودک شود چه تصمیمی خواهد گرفت و چه کسی را و به چه علت انتخاب خواهد کرد. او در ادامه این مقاله مینویسد: هوش مصنوعی خیلی فراتر از به اصطلاح اتوماسیونی است که ما به آن عادت داریم چون هوش مصنوعی قابلیت تعیین اهداف را برای خود دارد. به عبارت دیگر هوش مصنوعی از طریق فرآیندهایش کاملا قادر به تولید قابلیتی برای خودش است که تا پیش از آن تصور میشود که صرفا مختص به انسانها است. به گفته کیسینجر خطر هوش مصنوعی شاید کمی خوشخیمتر از چیزی باشد که فکر میکنیم اما عمده این خطر ناشی از این است که هوش مصنوعی صرفا بهخاطر عدم برخورداری ذاتی از پیشزمینه و بافت. دستورات انسانی را سوءتفسیر کند. او به یک مورد اخیر اشاره کرد که یک روبات چتکننده به نام «TAY» که برای یک گفتوگوی دوستانه در قالب یک دختر ۱۹ ساله طراحی شده درنهایت در روند گفتوگوهایش به جایی رسید که پاسخهای نژادپرستانه و با تبعیض جنسیتی و بسیار تحریککننده ارائه داد. کیسینجر گفت: خطر اصلی این است که هوش مصنوعی مطابق با توقعهایی که انسان مدنظر دارد عمل نکند و این منجر به دور شدن فاجعهبار آن از نتایج درنظر گرفته شده بشود. همچنین کیسینجر هشدار داد که یک خطر این است که هوش مصنوعی میتواند به جهت مصلحت خودش بیش از حد باهوش شود. او گفت: بهعنوان مثال در بازی کامپیوتری Go هوش مصنوعی توانست دست به یکسری حرکتهای بیسابقهای بزند که حتی انسانها تاکنون نتوانستهاند به آن فکر کنند. او پرسید آیا این حرکات فراتر از ظرفیت مغز انسان بوده است یا اینکه آیا انسانها اکنون میتوانند حالا که یک استاد جدید آنها را نشان داده بتوانند آنها را یاد بگیرند؟ کیسینجر همچنین این حقیقت را مطرح کرده که هوش مصنوعی میتواند بسیار سریعتر از ذهن انسان چیزی را یاد بگیرد. او به یک مورد اخیر دیگر یعنی یک برنامه کامپیوتری به نام «آلفا زیرو» اشاره کرد که جوری شطرنج را بازی کرد که هرگز در تاریخ بازی شطرنج سابقه نداشته است و تنها در چند ساعت به سطحی از مهارت در این بازی رسید که انسانها ۱۵۰۰ سال برای رسیدن به این سطح مهارت زمان صرف کردند و آن هم تنها با یاد گرفتن قوانین پایهای این بازی حاصل شد. کیسینجر نتیجهگیری کرد که این فرآیند یادگیری سریع در عین حال به این معنی است که هوش مصنوعی اشتباهات را هم میتواند خیلی سریعتر و در ابعادی بزرگتر از انسان مرتکب شود.
ارسال نظر