هوش مصنوعی، به ابزار دست باجافزاران تبدیل شده است
شریک جرم جدید هکرها
اما چیزی که آن را از سایر بدافزارهای مشابه جدا میکرد، استفاده (حملهکنندگان) از مدلهای زبان بزرگ (LLMs) بود. نه فقط در ابتدای آن، بلکه در هر مرحله از حمله از آن استفاده شده بود. وقتی نصب میشد، بهصورت لحظهای و فوری، با به کار گرفتن مدلهای زبان بزرگ، کد سفارشی خلق میکرد، فورا نقشهای از کامپیوتر را به منظور شناسایی اطلاعات حساس برای کپی کردن یا رمزنگاری کردن، ترسیم میکرد و بر اساس محتوای فایلها، یادداشتهای باجافزارانه شخصیشده تهیه میکرد. نرمافزار این کار را میتوانست بدون دخالت انسانی و بهطور مستقل انجام دهد و هر وقت راهاندازی میشد، میتوانست این کار را متفاوت انجام دهد و کار را برای کشف کردنش سختتر کند.
چرِپانوف و استریچک که کشفشان پرامپتلاک (PromptLock) نام داشت، مطمئن بودند که این لحظه یک نقطه عطف برای هوش مصنوعی مولد است و نشان میدهد که چگونه فناوری میتواند خلاقانه و به شکلی فوقالعاده منعطف، برای حملات بدافزارانه مورد سوءاستفاده قرار گیرد. آنها در یک بلاگی به شکل زنده، دست به افشای اولین باجافزار هوش مصنوعی زدهاند و این کشف آنها بلافاصله مورد توجه رسانههای جهان قرار گرفت. اما این تهدید در لحظه ظهور اولیه خود آنگونه که باید دراماتیک نبود. یک روز پس از پست زنده آنها، یک تیم از محققان دانشگاه نیویورک، مسوولیت را پذیرفت و شرح دادند که این بدافزار یک حمله تمام عیار که بیمحابا عمل کند، نبوده است، اما این پروژه تحقیقاتی طوری طراحی شده است که ثابت کند خودکار کردن هر مرحله از کارزار باجافزار «ممکن» است و آنگونه که گفتند این امر اتفاق افتاده است.
پرامپتلاک شاید یک پروژه دانشگاهی باشد اما افراد واقعا بد از ابزارهای هوش مصنوعی اخیرا زیاد استفاده کردهاند، درست مانند مهندسان نرمافزار که از هوش مصنوعی برای نوشتن کد و بررسی باگها استفاده میکنند، هکرها نیز از این ابزارها برای کم کردن زمان عملیات حمله و کاهش موانع آن استفاده میکنند.
لورنزو کاوالارو، پرفسور علوم کامپیوتری در کالج لندن میگوید: «این امر محتمل که حملهکنندگان سایبری روزبه روز بهتر و موثرتر عمل میکنند، دیگر یک امر دور و بعید نیست و یک «واقعیت محض» است.»
برخی در سیلیکونولی هشدار میدهند که هوش مصنوعی فاصله زیادی با حمله تمامعیار مستقل ندارد. اما عمده محققان امنیتی این ادعا را اغراقشده میخوانند. مارکوسهاچینز که رئیس محققان تهدیدهای امنیتی شرکت اکسپل بوده و کسی است که به پایان دادن به باجافزار معروف جهانی موسوم به « WannaCry» در سال ۲۰۱۷ شهرت دارد، میگوید: «بنا به دلایلی، الان همه روی این ایده بدافزاری که توسط هکرهای هوش مصنوعی صورت گرفته است، متمرکز شدهاند.» در مقابل، کارشناسان میگویند که باید توجه بیشتری روی خطرات فوری داشته باشیم که توسط هوش مصنوعی صورت میگیرد؛ چرا که حجم کلاهبرداریها از پیش، بیشتر و سرعت بالاتری گرفته است.
مجرمان بهطور وسیعی از آخرین فناوریهای دیپفیک برای جعل هویت افراد و کلاهبرداری از قربانیان به منظور خالی کردن جیب آنها استفاده میکنند. این حملات سایبری پیشرفته روزبه روز بیشتر مخرب میشوند و تعداشان بالاتر میرود و برای همین باید برای آن آماده بود.
اسپم و فراتر از آن
مهاجمان تقریبا از همان آغاز به کار چتجیپیتی، یعنی اواخر سال ۲۰۲۲، هوش مصنوعی مولد را بهعنوان یک ابزار پذیرفتند. این نوع تلاشها همانطور که میدانید با خلق اسپم، که خیلی زیاد بود، شروع شد. سال گذشته یک گزارش از سوی مایکروسافت منتشر شد که میگفت از انتهای سال ۲۰۲۴ تا آوریل ۲۰۲۵، کمپانی در حدود ۴میلیارد دلار تراکنش متقلبانه و مبتنی بر کلاهبرداری را توقیف کرد.
بر اساس گفتههای محققان دانشگاههای کلمبیا و شیکاگو، شبکههای باراکودا که نزدیک به ۵۰۰ هزار از پیامهای مخرب را پیش و پس از آغاز به کار چتجیپیتی، جمعآوری و بررسی کردهاند، دستکم نیمی از ایمیلهای حاوی اسپم، هماینک توسط زبانهای بزرگ خلق میشوند. آنها همچنین شواهدی پیدا کردند که از هوش مصنوعی مولد برای کلاهبرداریهای پیچیدهتر استفاده میشود. آنها همچنین به بررسی ایمیلی پرداختند که از طریق جعل هویت یک فرد قابل اعتماد به منظور فریب یک کارمند در درون سازمان پرداختند. تا آوریل ۲۰۲۵، آنها متوجه شدند که دستکم ۱۴ درصد از این حملات متوجه ایمیلها بودند که با زبانهای بزرگ صورت گرفته بودند. این آمار نشان میداد که نسبت به سال ۲۰۲۴، این نوع حملات ۷.۶ درصد افزایش یافته بودند.
انفجار مدلهای هوش مصنوعی مولد نه تنها این نوع حملات را ارزانتر و آسانتر کرده بودند، بلکه با تولید عکسها، ویدئوها و صداها، متقاعدکنندهتر شده بودند. نتایج حاصل از این تولیدات نسبت به چند سال پیش بسیار واقعگرایانهتر شدهاند و برای تولید خلق نسخههای تقلبی از صدا و تصویر کسی، مانند قبل، نیازی به دادههای فراوان نیست.
این فقط نوک کوه یخ است و مشکلی که از سوی دیپفیکها ما را تهدید میکند این است که شرایط با پیشرفت فناوری، بدتر و بهشکل گستردهای متقاعدکنندهتر میشوند.
تاکتیکهای مجرمان، در هر زمان تکامل و قابلیتهای هوش مصنوعی نیز بهبود پیدا میکند. افرادی از این دست مدام دست به تفحص میزنند؛ که چگونه قابلیتهای جدید به آنها یاری میرساند تا از قربانیان خود بیشترین سود را بهدست آورند. بیلی لِنارد، رهبر گروه تحلیلِ تهدید گوگل، از نزدیک در حال رصد استفاده از هوش مصنوعی توسط بازیگران بد است (اسامی بسیار گستردهای در این صنعت برای هکرهایی وجود دارد که با نیت بد قصد دارند از کامپیوترهایشان استفاده کنند).
در نیمه دوم سال ۲۰۲۴، مجرمان آیندهنگر، به همان طریقی از ابزاری مانند جمنایِ گوگل استفاده میکنند که سایرین (افراد عادی) با آن کار میکنند- برای اشکلزدایی از کد و اتومات کردن بیتها و قطعاتی از کارهایشان- همچنین برای نوشتن ایمیلهای عجیب و فریب برای فیشینگ از آن کمک میگیرند. او میگوید: «در سال ۲۰۲۵، آنها (مجرمان) در استفاده از هوش مصنوعی برای خلق کردن بدافزارها پیشرفتهایی داشتند و آنها (بدافزارها) را از قلاده رها کردند.»
سوال مهم اما این است که این نوع بدافزارها (malwares) تا کجا پیش خواهند رفت؟ آیا این یک بازی مشهور در امنیت سایبری بوده و حالا تبدیل به یک رقابت بزرگ برای بهدست آوردن پیروزی شده است؟ این نوع دزدی به دلیل بی در و پیکر بودن جمنای گوگل اطلاعات را برای سوءاستفاده دو دستی تقدیم مهاجمان میکند. اما بازیگران بد فقط بهدنبال مطیع کردن مدلهای هوش مصنوعی غولهای بزرگ در جهت اهداف شرورانه خود نیستند. اشلی جس، کارشناس سابق وزارت دادگستری آمریکا که هماینک بهعنوان مسوول ارشد امنیت سایبری کمپانی واحد ۴۷۱ اینتل خدمت میکند، میگوید: «هر چقدر پیش برویم، آنها احتمالا بیشتر و بیشتر از مدلهای هوش مصنوعی متن باز (Open source) استفاده میکنند، چرا که راحتتر است که حفاظهای امنیتیشان را از بین ببرند و آنها را مجبور کنند که کارهای بد بیشتری انجام دهند.» او ادامه میدهد: «فکر میکنم بازیگران بد بیش از پیش این موضوع را (که از هوش مصنوعی بیشتر استفاده کنند)، میپذیرند، برای اینکه این نوع بازیگران میتوانند حفاظهای هوش مصنوعی را بشکنند و یادشان بدهند که چه کارهایی برایشان انجام دهند».
تیم دانشگاه نیویورکسیتی از دو مدل متن باز از اوپنایآی برای آزمایش پرامپتلاک خود استفاده کرد و پی بردند که حتی لازم نیست که آنها به تکنیکهای به اصطلاح «جیلبرکینگ» (Jailbreaking) متوسل شوند تا مدل هوش مصنوعی را در جهت مطامع خود به کار بگیرند. آنها گفتند که این مدلها، حملات را بسیار آسانتر از پیش کردهاند.
میت اوداشی، دانشجوی دکترای دانشگاه نیویورک که در این پروژه کار میکرد، گفت: « این نوع از مدلهای متن باز با مسائل اخلاقی همتراز شدهاند و به این معنی است که سازندگانش برخی اهداف و ارزشها را مدنظر داشتهاند تا در برابر برخی درخواستها چگونه رفتار کنند. با این حال این نوع مدلها از این نوع محدودیتها که همتایان مدلهای بستهشان دارند، نداشتند.» او میافزاید: «این چیزی بود که ما قصد کار کردن روی این پروژه را داشتیم. این مدلهای زبان بزرگ، مدعیاند که با مسائل اخلاقی همتراز شدهاند- پس ما میتوانیم از آنها در جهت این نوع از خواستهها سوءاستفاده کنیم؟» اوداشی ادامه میدهد: «این احتمال وجود دارد که مجرمان، بهشکل موفقیتآمیزی به شیوه پرامپتلاک برای اهدافشان بهرهبرداری و تمامی مراحل حمله را خودکار کرده باشند. اما برای اینکه این نوع دزدی را انجام دهند باید بر مهمترین مانع آن که همان قابل اعتماد بودن هوش مصنوعی است، غلبه کنند، تا از ناسازگاری داخلی این مدلها در جهت اهداف بدخواهانه خود بیشترین استفاده را ببرند. در واقع این بزرگترین مانع است.
ابزارهای بهرهوری برای هکرها
پس ما به شکل قطعی چه چیزی میدانیم؟ برخی از بهترین اطلاعاتی که تاکنون داشتهایم این است که چگونه افراد تلاش میکنند تا از هوش مصنوعی برای نیات بد خود استفاده کنند که این امر هم از مسیر خود کمپانیهای بزرگ هوش مصنوعی رخ میدهد. دستکم در نظر اول، یافتههای آنها زنگ خطر را به صدا درآورده است. در ماه نوامبر (۲۰۲۵) تیم لنارد، در گوگل گزارشی منتشر کرد که بازیگران بدی را پیدا کرده بود که از ابزارهای هوش مصنوعی (از جمله جمنایِ گوگل) به شکلی پویا برای دگرگون کردن رفتار بدافزارها استفاده میکردند؛ برای مثال بدافزاری میتوانست با خود اصلاحگری ردپای خود را پاک کند. این تیم نوشت که این سرآغاز یک فاز عملیاتی جدید از سوء استفاده از هوش مصنوعی است.
با این حال کوین بیومانت، نویسنده امنیت سایبری در شبکه اجتماعی خود خاطرنشان کرد: «هر ۵ خانواده بدافزار که مورد بررسی قرار گرفته بودند (از جمله پرامپتلاک) دربرگیرنده کدی بودند که به راحتی قابل ردیابی بوند و در واقع هیچ آسیبی نمیرساندند.» او افزود: «در این گزارش اما اشارهای نشده بود که سازمانها باید برنامههای امنیتی پایه خود را عوض کنند.»
لنارد تایید میکند که فعالیتهای بدافزار در فاز اولیه خود بوده است. هنوز اما وی انتشار این نوع گزارشها را برای عموم مردم ارزشمند میداند، اگر به عوامل امنیت سایبری کمک و برای دیگران دفاع بهتری را فراهم کند تا از حملات خطرناکِ ساخته شده توسط هوش مصنوعی در امان بمانند. لنارد تصریح میکند: کلیشه است بگوییم اما نور خورشید بهترین ضد عفونی کننده است. اصلا خوب نیست که ما آن را پنهان کنیم یا به شیوهای رازآلود این موضوع را نگه داریم. ما میخواهیم که افراد توان فهمیدن این موضوع را داشته باشند. ما میخواهیم که سایر عوامل امنیت سایبری از آن باخبر باشند. پس آنها میتوانند دیوار دفاعی خود را در برابر این نوع حملات طراحی کنند.»
اینها تازه گونههای جدیدی از بدافزارهایی هستند که برای حملات آزمایشی طراحی شدهاند. آنها همچنین به نظر میرسد که از هوش مصنوعی برای خودکار کردن تمامی فرآیند حمله استفاده میکنند. در ماه نوامبر، آنتروپیک گفت که اختلالی در یک حمله سایبری در مقیاس بزرگ ایجاد کرده است. این اولین مورد از گزارشهایی بود که نشان میداد این حملات بدون دخالت انسانی صورت گرفته است. اگرچه کمپانی توضیحات بیشتری درباره تاکتیکهای دقیقی که توسط هکرها مورد استفاده قرار گرفته بود، ارائه نداد اما نویسندگان این گزارش گفتند که هکرهای حمایت شده توسط دولت چین با استفاده از کدهای کلاد توانسته بودند تا ۹۰ درصد از آنچه آنها کارزار جاسوسی پیچیده خواندند، حملاتشان را خودکار کنند.
آنتروپیک تایید میکند که یافتههای گزارش حاکی از سیگنالهای نگرانکننده از تغییرات پیشِ رو است. جیکوب کلاین، رئیس تهدیدهای هوش مصنوعی میگوید: «استفاده تمامی مراحل کارزار حملات متجاوزانه با هوش مصنوعی اصلا قابل تصور نبود.» او ادامه میدهد: «این امر، حملات را از فرآیندی پر نیرو به کاری آسان تبدیل میکند. ما وارد عصری میشویم که سپر موانع پیچیده عملیات سایبری پایینتر آمده است و سرعت حملات بیشتر از زمانی خواهد بود که سازمانها تصور میکنند.»