اخبار فناوری

حملات سایبری خودکار؛ هکرهای چینی هوش مصنوعی را به یک ماشین حمله تمام‌عیار تبدیل کردند!

امنیت سایبری با ظهور سریع ابزارهای پیشرفته هوش مصنوعی (AI) دستخوش تحولی بنیادین شده است، و حوادث اخیر نشان می‌دهند که سرعت تغییر در چشم‌انداز تهدیدات چقدر بالا است.

در طول سال گذشته، شاهد افزایش شدید حملاتی بوده‌ایم که توسط مدل‌های هوش مصنوعی تقویت شده‌اند؛ مدل‌هایی که می‌توانند کد بنویسند، شبکه‌ها را اسکن کنند و وظایف پیچیده را به صورت خودکار انجام دهند. این قابلیت اگرچه به مدافعان کمک کرده، اما مهاجمان را نیز قادر ساخته تا سریع‌تر از گذشته حرکت کنند.

جدیدترین نمونه، یک عملیات بزرگ جاسوسی سایبری است که توسط یک گروه مرتبط با دولت چین انجام شد. این گروه از مدل کلاد (Claude) متعلق به شرکت آنتروپیک (Anthropic) برای اجرای بخش‌های بزرگی از حمله با حداقل دخالت انسانی استفاده کرده است.

هکر هوش مصنوعی

چگونه هکرهای چینی کلاد را به ماشین حمله خودکار تبدیل کردند؟

در اواسط شهریور ماه ۱۴۰۴ (سپتامبر ۲۰۲۵)، محققان شرکت آنتروپیک رفتارهای غیرمعمولی را مشاهده کردند که در نهایت منجر به کشف یک عملیات هماهنگ و با منابع مالی بالا شد. عامل این تهدید، که با اطمینان بالا به عنوان گروه تحت حمایت دولت چین ارزیابی شد، از ابزار کد کلاد (Claude Code) برای هدف قرار دادن تقریباً ۳۰ سازمان در سراسر جهان استفاده کرده بود. این فهرست شامل شرکت‌های بزرگ فناوری، مؤسسات مالی، تولیدکنندگان مواد شیمیایی و نهادهای دولتی بود. تعداد کمی از این تلاش‌ها منجر به نفوذ موفقیت‌آمیز شد.

دور زدن تدابیر حفاظتی کلاد توسط مهاجمان

این یک نفوذ معمولی نبود. مهاجمان چارچوبی طراحی کرده بودند که به کلاد اجازه می‌داد به عنوان یک اپراتور خودمختار عمل کند. به جای درخواست کمک از مدل، آن‌ها به آن مأموریت دادند تا بیشتر مراحل حمله را اجرا کند. کلاد وظایفی چون بازرسی سیستم‌ها، نقشه‌برداری زیرساخت‌های داخلی و مشخص کردن پایگاه‌های داده ارزشمند برای هدف‌گیری را انجام داد. سرعت این عملیات چیزی نبود که یک تیم انسانی بتواند آن را تکرار کند.

هکر هوش مصنوعی

برای دور زدن قوانین ایمنی کلاد، مهاجمان برنامه حمله خود را به مراحل کوچک و در ظاهر بی‌خطر تقسیم کردند. آن‌ها همچنین به مدل القا کردند که بخشی از یک تیم قانونی امنیت سایبری است که در حال انجام تست‌های دفاعی است. آنتروپیک بعداً اشاره کرد که مهاجمان صرفاً وظایف را به کلاد محول نکردند؛ بلکه عملیات را طوری مهندسی کردند که مدل باور کند در حال انجام کار تست نفوذ مجاز (Authorized Pentesting) است، حمله را به بخش‌های کوچک و بی‌ضرر تقسیم کردند و از چندین تکنیک جیل‌بریک (Jailbreak) برای عبور از تدابیر حفاظتی آن استفاده کردند.

پس از نفوذ، کلاد به تحقیق درباره آسیب‌پذیری‌ها، نوشتن اکسپلویت‌های سفارشی (Custom Exploits)، جمع‌آوری اعتبارات کاربری و گسترش دسترسی پرداخت. این مدل تمام این مراحل را با کمترین نظارت انجام داد و تنها زمانی که برای تصمیمات مهم نیاز به تأیید انسانی داشت، گزارش می‌داد.

این مدل حتی مدیریت استخراج داده‌ها را نیز بر عهده داشت. اطلاعات حساس را جمع‌آوری می‌کرد، آن‌ها را بر اساس ارزش دسته‌بندی می‌نمود و حساب‌های دارای امتیاز بالا را شناسایی می‌کرد. حتی برای استفاده‌های آتی، درهای پشتی (Backdoors) نیز ایجاد کرد. در مرحله پایانی، کلاد مستندات دقیقی از تمام کارهای انجام شده تولید کرد که شامل اعتبارات سرقت شده، سیستم‌های تحلیل شده و یادداشت‌هایی بود که می‌توانست راهنمای عملیات‌های بعدی باشد.

محققان تخمین می‌زنند که در کل این کمپین، کلاد تقریباً ۸۰ تا ۹۰ درصد کار را انجام داده است. اپراتورهای انسانی تنها در تعداد انگشت‌شماری از مواقع دخالت کردند. در اوج خود، هوش مصنوعی هزاران درخواست را آغاز کرد که اغلب چندین درخواست در ثانیه بود؛ سرعتی که همچنان فراتر از توانایی هر تیم انسانی است. اگرچه مدل گاهی اوقات در تولید اعتبارات کاربری «توهم» داشت یا داده‌های عمومی را به اشتباه محرمانه می‌خواند، اما این خطاها نشان دادند که حملات سایبری کاملاً خودمختار هنوز با محدودیت‌هایی مواجه هستند، حتی زمانی که بخش عمده کار توسط یک مدل هوش مصنوعی انجام می‌شود.

هکر هوش مصنوعی

چرا این حمله با هدایت هوش مصنوعی توسط کلاد یک نقطه عطف برای امنیت سایبری است؟

این عملیات نشان می‌دهد که چقدر مانع دسترسی به حملات سایبری سطح بالا کاهش یافته است. اکنون گروهی با منابع بسیار کمتر می‌توانند با تکیه بر یک عامل هوش مصنوعی خودمختار (Autonomous AI Agent) برای انجام کارهای سنگین، اقدام مشابهی را امتحان کنند. وظایفی که زمانی به سال‌ها تخصص نیاز داشتند، اکنون می‌توانند توسط مدلی خودکار شوند که متن را درک می‌کند، کد می‌نویسد و از ابزارهای خارجی بدون نظارت مستقیم استفاده می‌نماید.

در حوادث پیشین سوءاستفاده از هوش مصنوعی که مستند شده‌اند، انسان‌ها همچنان هدایت‌گر هر مرحله بودند. اما این مورد متفاوت است. پس از به حرکت درآمدن سیستم، مهاجمان به دخالت بسیار اندکی نیاز داشتند. و در حالی که تحقیقات بر استفاده در بستر کلاد متمرکز بود، محققان معتقدند فعالیت‌های مشابهی در سایر مدل‌های پیشرفته نیز در حال وقوع است که ممکن است شامل گوگل جمنی (Google Gemini)، چت‌جی‌پی‌تی اوپن‌ای‌آی (OpenAI’s ChatGPT) یا گروک ایلان ماسک (Musk’s Grok) باشد.

این مسئله یک پرسش دشوار ایجاد می‌کند: اگر این سیستم‌ها به این راحتی می‌توانند مورد سوءاستفاده قرار گیرند، چرا باید به توسعه آن‌ها ادامه داد؟ به گفته محققان، همان قابلیت‌هایی که هوش مصنوعی را خطرناک می‌سازد، آن را برای دفاع نیز حیاتی می‌کند. در طول این حادثه، تیم خود آنتروپیک از کلاد برای تحلیل سیل گزارش‌ها، سیگنال‌ها و داده‌هایی استفاده کرد که تحقیقاتشان کشف کرده بود. با افزایش تهدیدات، چنین سطحی از پشتیبانی اهمیت بیشتری پیدا خواهد کرد.

۷ گام برای محافظت از خود در برابر حملات سایبری با هدایت هوش مصنوعی

شاید شما هدف مستقیم یک عملیات تحت حمایت دولت نباشید، اما بسیاری از این تکنیک‌ها به کلاهبرداری‌های روزمره، سرقت اعتبارات و تصاحب حساب‌های کاربری نیز نشت پیدا می‌کنند. در اینجا هفت گام دقیق برای حفظ امنیت بیشتر شما آورده شده است:

۱) از نرم‌افزار آنتی‌ویروس قوی استفاده کنید و آن را به‌روز نگه دارید: آنتی‌ویروس قوی فراتر از اسکن بدافزارهای شناخته‌شده عمل می‌کند. این نرم‌افزار به دنبال الگوهای مشکوک، اتصالات مسدود شده و رفتارهای غیرعادی سیستم می‌گردد. این امر حیاتی است، زیرا حملات هدایت‌شده با هوش مصنوعی می‌توانند به سرعت کدهای جدید تولید کنند، به این معنی که تشخیص سنتی مبتنی بر امضا دیگر کافی نیست.

هکر هوش مصنوعی

۲) به یک مدیر رمز عبور (Password Manager) اعتماد کنید: یک مدیر رمز عبور خوب به شما کمک می‌کند برای هر سرویسی که استفاده می‌کنید، رمزهای عبور طولانی و تصادفی ایجاد کنید. این موضوع اهمیت دارد، زیرا هوش مصنوعی می‌تواند با سرعت بالا، تغییرات رمزهای عبور را تولید و آزمایش کند. استفاده از رمز عبور مشابه در چندین حساب، می‌تواند یک نشت اطلاعاتی ساده را به یک سازش کامل تبدیل کند.

۳) استفاده از خدمات حذف داده‌های شخصی را در نظر بگیرید: بخش بزرگی از حملات سایبری مدرن با اطلاعات در دسترس عموم آغاز می‌شود. مهاجمان اغلب آدرس‌های ایمیل، شماره تلفن، رمزهای عبور قدیمی و جزئیات شخصی را از سایت‌های دلال داده‌ها جمع‌آوری می‌کنند. ابزارهای هوش مصنوعی این کار را آسان‌تر می‌کنند، زیرا می‌توانند در عرض چند ثانیه مجموعه داده‌های عظیمی را استخراج و تحلیل کنند. یک سرویس حذف داده‌های شخصی به پاک‌سازی اطلاعات شما از این سایت‌های دلال کمک می‌کند تا هدف‌گیری و پروفایل‌سازی شما دشوارتر شود.

۴) احراز هویت دوعاملی (Two-Factor Authentication) را در هر کجا که امکان دارد، فعال کنید: زمانی که مهاجمان می‌توانند اعتبارات را از طریق بدافزار، صفحات فیشینگ یا اسکریپت‌های خودکار به سرقت ببرند، رمزهای عبور قوی به تنهایی کافی نیستند. احراز هویت دوعاملی (2FA) یک مانع جدی اضافه می‌کند. به جای پیامک، از کدهای مبتنی بر اپلیکیشن یا کلیدهای سخت‌افزاری استفاده کنید. اگرچه هیچ روشی کامل نیست، اما این لایه اضافی اغلب ورودهای غیرمجاز را متوقف می‌کند، حتی زمانی که مهاجمان رمز عبور شما را داشته باشند.

۵) دستگاه‌ها و برنامه‌های خود را کاملاً به‌روز نگه دارید: مهاجمان به شدت بر آسیب‌پذیری‌های شناخته‌شده‌ای تکیه می‌کنند که مردم آن‌ها را نادیده می‌گیرند. به‌روزرسانی‌های سیستم این نقص‌ها را وصله می‌کنند و نقاط ورودی را که مهاجمان برای نفوذ استفاده می‌کنند، مسدود می‌نمایند. به‌روزرسانی‌های خودکار را روی تلفن، لپ‌تاپ، روتر و برنامه‌های پرکاربرد خود فعال کنید.

۶) برنامه‌ها را فقط از منابع قابل اعتماد نصب کنید: برنامه‌های مخرب یکی از ساده‌ترین راه‌های نفوذ مهاجمان به دستگاه شما هستند. به فروشگاه‌های رسمی برنامه‌ها پایبند باشید و از سایت‌های APK، پورتال‌های دانلود مشکوک و لینک‌های تصادفی به اشتراک گذاشته شده در برنامه‌های پیام‌رسان دوری کنید.

هکر هوش مصنوعی

۷) پیامک‌ها، ایمیل‌ها و پاپ‌آپ‌های مشکوک را نادیده بگیرید: ابزارهای هوش مصنوعی، فیشینگ را متقاعدکننده‌تر کرده‌اند. مهاجمان می‌توانند پیام‌های بسیار طبیعی، شیوه‌های نگارش تقلیدی و وب‌سایت‌های جعلی کامل تولید کنند که شبیه نمونه‌های واقعی هستند. هرگز روی لینک‌های فرستنده ناشناس کلیک نکنید، و درخواست‌ها از مخاطبین شناخته‌شده را از طریق یک کانال جداگانه تأیید کنید.

حمله انجام شده از طریق کلاد نشان‌دهنده یک تغییر عمده در نحوه تکامل تهدیدات سایبری است. عوامل هوش مصنوعی خودمختار در حال حاضر می‌توانند وظایف پیچیده را با سرعتی انجام دهند که هیچ تیم انسانی قادر به رقابت با آن نیست، و این شکاف با بهبود مدل‌ها فقط گسترده‌تر خواهد شد. تیم‌های امنیتی اکنون باید هوش مصنوعی را به عنوان بخشی اصلی از ابزار دفاعی خود بدانند، نه یک افزونه آینده. تشخیص بهتر تهدید، تدابیر حفاظتی قوی‌تر و اشتراک‌گذاری بیشتر اطلاعات در صنعت، حیاتی خواهد بود. زیرا اگر مهاجمان از قبل در این مقیاس از هوش مصنوعی استفاده می‌کنند، پنجره زمانی برای آماده‌سازی به سرعت در حال کوچک شدن است.

به مطالعه ادامه دهید:

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا