شریک جرم جدید هکرها

 اما چیزی که آن را از سایر بدافزارهای مشابه جدا می‌کرد، استفاده (حمله‌کنندگان) از مدل‌های زبان بزرگ (LLMs) بود. نه فقط در ابتدای آن، بلکه در هر مرحله از حمله از آن استفاده شده بود. وقتی نصب می‌شد، به‌صورت لحظه‌ای و فوری، با به کار گرفتن مدل‌های زبان بزرگ، کد سفارشی خلق می‌کرد، فورا نقشه‌ای از کامپیوتر را به منظور شناسایی اطلاعات حساس برای کپی کردن یا رمزنگاری کردن، ترسیم می‌کرد و بر اساس محتوای فایل‌ها، یادداشت‌های باج‌افزارانه شخصی‌شده تهیه می‌کرد. نرم‌افزار این کار را می‌توانست بدون دخالت انسانی و به‌طور مستقل انجام دهد و هر وقت راه‌اندازی می‌شد، می‌توانست این کار را متفاوت انجام دهد و کار را برای کشف کردنش سخت‌تر کند.

چرِپانوف و استریچک که کشف‌شان پرامپت‌لاک (PromptLock) نام داشت، مطمئن بودند که این لحظه یک نقطه عطف برای هوش مصنوعی مولد است و نشان می‌دهد که چگونه فناوری می‌تواند خلاقانه و به شکلی فوق‌العاده منعطف، برای حملات بدافزارانه مورد سوءاستفاده قرار گیرد. آنها در یک بلاگی به شکل زنده، دست به افشای اولین باج‌افزار هوش مصنوعی زده‌اند و این کشف آنها بلافاصله مورد توجه رسانه‌های جهان قرار گرفت. اما این تهدید در لحظه ظهور اولیه خود آنگونه که باید دراماتیک نبود. یک روز پس از پست زنده آنها، یک تیم از محققان دانشگاه نیویورک، مسوولیت را پذیرفت و شرح دادند که این بدافزار یک حمله تمام عیار که بی‌محابا عمل کند، نبوده است، اما این پروژه تحقیقاتی طوری طراحی شده است که ثابت کند خودکار کردن هر مرحله از کارزار باج‌افزار «ممکن» است و آنگونه که گفتند این امر اتفاق افتاده است.

 پرامپت‌لاک شاید یک پروژه دانشگاهی باشد اما افراد واقعا بد از ابزارهای هوش مصنوعی اخیرا زیاد استفاده کرده‌اند، درست مانند مهندسان نرم‌افزار که از هوش مصنوعی برای نوشتن کد و بررسی باگ‌ها استفاده می‌کنند، هکرها نیز از این ابزارها برای کم کردن زمان عملیات حمله و کاهش موانع آن استفاده می‌کنند.

لورنزو کاوالارو، پرفسور علوم کامپیوتری در کالج لندن می‌گوید: «این امر محتمل که حمله‌کنندگان سایبری روزبه ‌روز بهتر و موثرتر عمل می‌کنند، دیگر یک امر دور و بعید نیست و یک «واقعیت محض» است.»

برخی در سیلیکون‌ولی هشدار می‌دهند که هوش مصنوعی فاصله زیادی با حمله تمام‌عیار مستقل ندارد. اما عمده محققان امنیتی این ادعا را اغراق‌شده می‌خوانند. مارکوس‌هاچینز که رئیس محققان تهدیدهای امنیتی شرکت اکسپل بوده و کسی است که به پایان دادن به باج‌افزار معروف جهانی موسوم به « WannaCry» در سال ۲۰۱۷ شهرت دارد، می‌گوید: «بنا به دلایلی، الان همه روی این ایده بدافزاری که توسط هکرهای هوش مصنوعی صورت گرفته است، متمرکز شده‌اند.» در مقابل، کارشناسان می‌گویند که باید توجه بیشتری روی خطرات فوری داشته باشیم که توسط هوش مصنوعی صورت می‌گیرد؛ چرا که حجم کلاهبرداری‌ها از پیش، بیشتر و سرعت بالاتری گرفته است.

مجرمان به‌طور وسیعی از آخرین فناوری‌های دیپ‌فیک برای جعل هویت افراد و کلاهبرداری از قربانیان به منظور خالی کردن جیب آنها استفاده می‌کنند. این حملات سایبری پیشرفته روزبه ‌روز بیشتر مخرب می‌شوند و تعداشان بالاتر می‌رود و برای همین باید برای آن آماده بود.

 اسپم و فراتر از آن

مهاجمان تقریبا از همان آغاز به کار چت‌جی‌پی‌تی، یعنی اواخر سال ۲۰۲۲، هوش مصنوعی مولد را به‌عنوان یک ابزار پذیرفتند. این نوع تلاش‌ها همان‌طور که می‌دانید با خلق اسپم، که خیلی زیاد بود، شروع شد. سال گذشته یک گزارش از سوی مایکروسافت منتشر شد که می‌گفت از انتهای سال ۲۰۲۴ تا آوریل ۲۰۲۵، کمپانی در حدود ۴‌میلیارد دلار تراکنش متقلبانه و مبتنی بر کلاهبرداری را توقیف کرد.

بر اساس گفته‌های محققان دانشگاه‌های کلمبیا و شیکاگو، شبکه‌های باراکودا که نزدیک به ۵۰۰ هزار از پیام‌های مخرب را پیش و پس از آغاز به کار چت‌جی‌پی‌تی، جمع‌آوری و بررسی کرده‌اند، دست‌کم نیمی از ای‌میل‌های حاوی اسپم، هم‌اینک توسط زبان‌های بزرگ خلق می‌شوند. آنها همچنین شواهدی پیدا کردند که از هوش مصنوعی مولد برای کلاهبرداری‌های پیچیده‌تر استفاده می‌شود. آنها همچنین به بررسی ای‌میلی پرداختند که از طریق جعل هویت یک فرد قابل اعتماد به منظور فریب یک کارمند در درون سازمان پرداختند. تا آوریل ۲۰۲۵، آنها متوجه شدند که دست‌کم ۱۴ درصد از این حملات متوجه ای‌میل‌ها بودند که با زبان‌های بزرگ صورت گرفته بودند. این آمار نشان می‌داد که نسبت به سال ۲۰۲۴، این نوع حملات ۷.۶ درصد افزایش یافته بودند.

انفجار مدل‌های هوش مصنوعی مولد نه تنها این نوع حملات را ارزان‌تر و آسان‌تر کرده بودند، بلکه با تولید عکس‌ها، ویدئوها و صداها، متقاعد‌کننده‌تر شده بودند. نتایج حاصل از این تولیدات نسبت به چند سال پیش بسیار واقع‌گرایانه‌تر شده‌اند و برای تولید خلق نسخه‌های تقلبی از صدا و تصویر کسی، مانند قبل، نیازی به داده‌های فراوان نیست.

این فقط نوک کوه یخ است و مشکلی که از سوی دیپ‌فیک‌ها ما را تهدید می‌کند این است که شرایط با پیشرفت فناوری، بدتر و به‌شکل گسترده‌ای متقاعدکننده‌تر می‌شوند.

تاکتیک‌های مجرمان، در هر زمان تکامل و قابلیت‌های هوش مصنوعی نیز بهبود پیدا می‌کند. افرادی از این دست مدام دست به تفحص می‌زنند؛ که چگونه قابلیت‌های جدید به آنها یاری می‌رساند تا از قربانیان خود بیشترین سود را به‌دست آورند. بیلی لِنارد، رهبر گروه تحلیلِ تهدید گوگل، از نزدیک در حال رصد استفاده از هوش مصنوعی توسط بازیگران بد است (اسامی بسیار گسترده‌ای در این صنعت برای هکرهایی وجود دارد که با نیت بد قصد دارند از کامپیوترهایشان استفاده کنند).

در نیمه دوم سال ۲۰۲۴، مجرمان آینده‌نگر، به همان طریقی از ابزاری مانند جمنایِ گوگل استفاده می‌کنند که سایرین (افراد عادی) با آن کار می‌کنند- برای اشکل‌زدایی از کد و اتومات کردن بیت‌ها و قطعاتی از کارهایشان- همچنین برای نوشتن ایمیل‌های عجیب و فریب برای فیشینگ از آن کمک می‌گیرند. او می‌گوید: «در سال ۲۰۲۵، آنها (مجرمان) در استفاده از هوش مصنوعی برای خلق کردن بدافزارها پیشرفت‌هایی داشتند و آنها (بدافزارها) را از قلاده رها کردند.»

سوال مهم اما این است که این نوع بدافزارها (malwares) تا کجا پیش خواهند رفت؟ آیا این یک بازی مشهور در امنیت سایبری بوده و حالا تبدیل به یک رقابت بزرگ برای به‌دست آوردن پیروزی شده است؟ این نوع دزدی به دلیل بی‌ در و پیکر بودن جمنای گوگل اطلاعات را برای سوءاستفاده دو دستی تقدیم مهاجمان می‌کند. اما بازیگران بد فقط به‌دنبال مطیع کردن مدل‌های هوش مصنوعی غول‌های بزرگ در جهت اهداف شرورانه خود نیستند. اشلی جس، کارشناس سابق وزارت دادگستری آمریکا که هم‌اینک به‌عنوان مسوول ارشد امنیت سایبری کمپانی واحد ۴۷۱ اینتل خدمت می‌کند، می‌گوید: «هر چقدر پیش برویم، آنها احتمالا بیشتر و بیشتر از مدل‌های هوش مصنوعی متن باز (Open source) استفاده می‌کنند، چرا که راحت‌تر است که حفاظ‌های امنیتی‌شان را از بین ببرند و آنها را مجبور کنند که کارهای بد بیشتری انجام دهند.» او ادامه می‌دهد: «فکر می‌کنم بازیگران بد بیش از پیش این موضوع را (که از هوش مصنوعی بیشتر استفاده کنند)، می‌پذیرند، برای اینکه این نوع بازیگران می‌توانند حفاظ‌های هوش مصنوعی را بشکنند و یادشان بدهند که چه کارهایی برایشان انجام دهند».

تیم دانشگاه نیویورک‌سیتی از دو مدل متن باز از اوپن‌ای‌آی برای آزمایش پرامپت‌لاک خود استفاده کرد و پی بردند که حتی لازم نیست که آنها به تکنیک‌های به اصطلاح «جیل‌برکینگ» (Jailbreaking) متوسل شوند تا مدل هوش مصنوعی را در جهت مطامع خود به کار بگیرند. آنها گفتند که این مدل‌ها، حملات را بسیار آسان‌تر از پیش کرده‌اند.

میت اوداشی، دانشجوی دکترای دانشگاه نیویورک که در این پروژه کار می‌کرد، گفت: « این نوع از مدل‌های متن باز با مسائل اخلاقی هم‌تراز شده‌اند و به این معنی است که سازندگانش برخی اهداف و ارزش‌ها را مدنظر داشته‌اند تا در برابر برخی درخواست‌ها چگونه رفتار کنند. با این حال این نوع مدل‌ها از این نوع محدودیت‌ها که همتایان مدل‌های بسته‌شان دارند، نداشتند.» او می‌افزاید: «این چیزی بود که ما قصد کار کردن روی این پروژه را داشتیم. این مدل‌های زبان بزرگ، مدعی‌اند که با مسائل اخلاقی همتراز شده‌اند- پس ما می‌توانیم از آنها در جهت این نوع از خواسته‌ها سوءاستفاده کنیم؟» اوداشی ادامه می‌دهد: «این احتمال وجود دارد که مجرمان، به‌شکل موفقیت‌آمیزی به شیوه پرامپت‌لاک برای اهدافشان بهره‌برداری و تمامی مراحل حمله را خودکار کرده باشند. اما برای اینکه این نوع دزدی را انجام دهند باید بر مهم‌ترین مانع آن که همان قابل اعتماد بودن هوش مصنوعی است، غلبه کنند، تا از ناسازگاری داخلی این مدل‌ها در جهت اهداف بدخواهانه خود بیشترین استفاده را ببرند. در واقع این بزرگ‌ترین مانع است.

ابزارهای بهره‌وری برای هکرها

پس ما به شکل قطعی چه چیزی می‌دانیم؟ برخی از بهترین اطلاعاتی که تاکنون داشته‌ایم این است که چگونه افراد تلاش می‌کنند تا از هوش مصنوعی برای نیات بد خود استفاده کنند که این امر هم از مسیر خود کمپانی‌های بزرگ هوش مصنوعی رخ می‌دهد. دست‌کم در نظر اول، یافته‌های آنها زنگ خطر را به صدا درآورده است. در ماه نوامبر (۲۰۲۵) تیم لنارد، در گوگل گزارشی منتشر کرد که بازیگران بدی را پیدا کرده بود که از ابزارهای هوش مصنوعی (از جمله جمنایِ گوگل) به شکلی پویا برای دگرگون کردن رفتار بدافزارها استفاده می‌کردند؛ برای مثال بدافزاری می‌توانست با خود اصلاح‌گری ردپای خود را پاک کند. این تیم نوشت که این سرآغاز یک فاز عملیاتی جدید از سوء استفاده از هوش مصنوعی است.

با این حال کوین بیومانت، نویسنده امنیت سایبری در شبکه اجتماعی خود خاطرنشان کرد: «هر ۵ خانواده بدافزار که مورد بررسی قرار گرفته بودند (از جمله پرامپت‌لاک) دربرگیرنده کدی بودند که به راحتی قابل ردیابی بوند و در واقع هیچ آسیبی نمی‌رساندند.» او افزود: «در این گزارش اما اشاره‌ای نشده بود که سازمان‌ها باید برنامه‌های امنیتی پایه خود را عوض کنند.»

لنارد تایید می‌کند که فعالیت‌های بدافزار در فاز اولیه خود بوده است. هنوز اما وی انتشار این نوع گزارش‌ها را برای عموم مردم ارزشمند می‌داند، اگر به عوامل امنیت سایبری کمک و برای دیگران دفاع بهتری را فراهم کند تا از حملات خطرناکِ ساخته شده توسط هوش مصنوعی در امان بمانند. لنارد تصریح می‌کند: کلیشه است بگوییم اما نور خورشید بهترین ضد عفونی کننده است. اصلا خوب نیست که ما آن را پنهان کنیم یا به شیوه‌ای رازآلود این موضوع را نگه داریم. ما می‌خواهیم که افراد توان فهمیدن این موضوع را داشته باشند. ما می‌خواهیم که سایر عوامل امنیت سایبری از آن باخبر باشند. پس آنها می‌توانند دیوار دفاعی خود را در برابر این نوع حملات طراحی کنند.»

اینها تازه گونه‌های جدیدی از بدافزارهایی هستند که برای حملات آزمایشی طراحی شده‌اند. آنها همچنین به نظر می‌رسد که از هوش مصنوعی برای خودکار کردن تمامی فرآیند حمله استفاده می‌کنند. در ماه نوامبر، آنتروپیک گفت که اختلالی در یک حمله سایبری در مقیاس بزرگ ایجاد کرده است. این اولین مورد از گزارش‌هایی بود که نشان می‌داد این حملات بدون دخالت انسانی صورت گرفته است. اگرچه کمپانی توضیحات بیشتری درباره تاکتیک‌های دقیقی که توسط هکرها مورد استفاده قرار گرفته بود، ارائه نداد اما نویسندگان این گزارش گفتند که هکرهای حمایت شده توسط دولت چین با استفاده از کدهای کلاد توانسته بودند تا ۹۰ درصد از آنچه آنها کارزار جاسوسی پیچیده خواندند، حملاتشان را خودکار کنند.

آنتروپیک تایید می‌کند که یافته‌های گزارش حاکی از سیگنال‌های نگران‌کننده از تغییرات پیشِ رو است. جیکوب کلاین، رئیس تهدیدهای هوش مصنوعی می‌گوید: «استفاده تمامی مراحل کارزار حملات متجاوزانه با هوش مصنوعی اصلا قابل تصور نبود.» او ادامه می‌دهد: «این امر، حملات را از فرآیندی پر نیرو به کاری آسان تبدیل می‌کند. ما وارد عصری می‌شویم که سپر موانع پیچیده عملیات سایبری پایین‌تر آمده است و سرعت حملات بیشتر از زمانی خواهد بود که سازمان‌ها تصور می‌کنند.»