محققان مدل‌های یادگیری ماشینی را با باج‌افزار مسلح می‌کنند

بونر گفت: «مردم برای مدتی می‌دانستند که این امکان وجود دارد، اما نمی‌دانستند که چقدر آسان است. “این کاملاً پیش پا افتاده است که یک حمله را با چند اسکریپت ساده در کنار هم قرار دهیم.”

با این حال، او ادامه داد، این به پیچیدگی بیشتری نسبت به حملات باج‌افزاری معمولی نیاز دارد که عمدتاً برای راه‌اندازی به پر کردن اعتبار ساده یا فیشینگ متکی هستند.

موری هابر، افسر ارشد امنیتی در توضیح داد: راه حل های سنتی ضد بدافزار و تشخیص و پاسخ نقطه پایانی برای شناسایی باج افزار بر اساس رفتارهای مبتنی بر الگو، از جمله امضای ویروس و نظارت بر API، فایل و درخواست های رجیستری کلیدی در ویندوز برای فعالیت های مخرب بالقوه طراحی شده اند. BeyondTrust، سازنده مدیریت حساب کاربری ممتاز و راه حل های مدیریت آسیب پذیری در Carlsbad، کالیفرنیا.

او افزود: «اکنون که مردم می‌دانند چقدر آسان است، انجام آن در قلمرو بچه‌های فیلمنامه است.



منبع

کلمنتز به TechNewsWorld گفت: مهاجمانی که به دنبال اولین مزیت محرک در این مرزها هستند، می توانند از آمادگی کمتر و محافظت فعال در برابر بهره برداری از فناوری های جدید برخوردار شوند.

هابر به TechNewsWorld گفت: «اگر یادگیری ماشین برای تحویل بدافزارهایی مانند باج‌افزار اعمال شود، بردارهای حمله سنتی و حتی روش‌های تشخیص را می‌توان تغییر داد تا غیر مخرب به نظر برسند.

احتمال آسیب گسترده

محققان HiddenLayer، یک شرکت امنیتی زبان ماشین، روز سه‌شنبه در وبلاگی فاش کردند که چگونه یک مهاجم می‌تواند از یک مدل محبوب ML برای استقرار باج‌افزار استفاده کند.

تبلیغات

جستجوی تجارت الکترونیک خود را با یادگیری روز صفر افزایش دهید

او گفت: “به نظر می رسد این حمله به مدل های زبان ماشینی ممکن است گام بعدی در بازی موش و گربه بین مهاجمان و مدافعان باشد.”

الیس به TechNewsWorld گفت: «همان‌طور که دشمنان ممکن است سعی کنند زنجیره تأمین برنامه‌های نرم‌افزاری را برای وارد کردن کدهای مخرب یا آسیب‌پذیری‌ها به خطر بیاندازند، ممکن است زنجیره تأمین مدل‌های یادگیری ماشینی را نیز برای درج داده‌ها یا الگوریتم‌های مخرب یا مغرضانه هدف قرار دهند.

استفاده از این امر مستلزم به خطر انداختن یک پروژه مدل ML بالادستی است که توسط توسعه دهندگان پایین دستی استفاده می شود، قربانی را فریب می دهد تا یک مدل ML از پیش آموزش دیده را با دستورات مخرب تعبیه شده از یک منبع غیر رسمی دانلود کند، یا مجموعه داده خصوصی مورد استفاده توسعه دهندگان ML را به خطر می اندازد. او توضیح داد.

او توضیح داد: «در زنجیره تأمین، اگر داده‌ها مسموم شوند به طوری که وقتی مدل‌ها آموزش می‌بینند، سیستم نیز مسموم می‌شود، آن مدل می‌تواند تصمیم‌هایی بگیرد که امنیت را به جای تقویت آن کاهش دهد».

گویی مدافعان زنجیره تامین نرم‌افزار بردار حمله کافی برای نگرانی ندارند، اکنون بردار جدیدی دارند: مدل‌های یادگیری ماشین.

“بیشتر [the] ماشین‌هایی که مدل‌های یادگیری ماشینی را اجرا می‌کنند دارای پردازنده‌های گرافیکی بزرگ و چاق هستند، بنابراین استخراج‌کنندگان بیت‌کوین می‌توانند روی این سیستم‌ها نیز بسیار موثر باشند.»

بونر به TechNewsWorld گفت: «این به آنها اجازه می دهد تا زیر رادار پرواز کنند. “این تکنیکی نیست که توسط آنتی ویروس یا نرم افزار EDR فعلی شناسایی شود.”

او گفت: “در حال حاضر، من فکر می کنم محبوبیت بردار حمله خاص احتمالاً برای آینده قابل پیش بینی کم خواهد بود.”

تام بونر، مدیر ارشد تحقیقات تهدیدات متخاصم در HiddenLayer مستقر در آستین، تگزاس، مشاهده کرد که جاسازی بدافزار در یک مدل ML مزایایی را برای دشمن ارائه می‌کند.

HiddenLayer نشان می‌دهد که چگونه مدل ResNet از قبل آموزش‌دیده ربوده‌شده، یک نمونه باج‌افزار را در لحظه بارگذاری آن در حافظه توسط PyTorch در دستگاه آزمایشی خود اجرا می‌کند.


مزیت اولین حرکت دهنده

کارن کرولی، مدیر راه حل های محصول در Deep Instinct، یک شرکت امنیت سایبری با یادگیری عمیق در شهر نیویورک، خاطرنشان کرد که حملات به مدل های زبان ماشینی در حال افزایش است.

عوامل تهدید ممکن است علاقه بیشتری به مدل‌های ماشین نشان دهند، زیرا آسیب‌پذیرتر از آن چیزی هستند که مردم فکر می‌کردند.

به گفته محققان، فرآیند استگانوگرافی نسبتاً عمومی است و می تواند در اکثر کتابخانه های ML اعمال شود. آنها اضافه کردند که این فرآیند نیازی به تعبیه کدهای مخرب در مدل ندارد و همچنین می تواند برای استخراج داده ها از یک سازمان استفاده شود.

کراولی به TechNewsWorld گفت: “این هنوز قابل توجه نیست، اما احتمال آسیب گسترده وجود دارد.”

او گفت: “این همچنین اهداف جدیدی را برای آنها باز می کند.” “این یک مسیر مستقیم به سیستم های دانشمند داده است. این امکان وجود دارد که یک مدل یادگیری ماشینی که در یک مخزن عمومی میزبانی شده است را واژگون کرد. دانشمندان داده آن را پایین می کشند و بارگذاری می کنند، سپس در معرض خطر قرار می گیرند.