هشدار درباره ی نقش آفرینی هوش مصنوعی در حملات سایبری جدید
سایت امن: کارشناسان امنیت سایبری هشدار می دهند عامل هایی که حال به عنوان دستیاران هوشمند در خدمت کاربران هستند، می توانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را ایفا کنند.
به گزارش سایت امن به نقل از مهر؛ در صورتیکه جوامع فناورانه با شتاب بیش از پیش درحال استفاده از عامل های هوش مصنوعی برای تسهیل امور روزمره، ساماندهی کارها، افزایش کارآیی فردی و سازمانی و بهینه سازی فرآیندهای تصمیم گیری هستند، در آن سوی این تحولات امیدبخش، تهدیدی نگران کننده درحال ایجاد است که می تواند امنیت دیجیتال جهانی را به چالش بکشد. کارشناسان امنیت سایبری هشدار می دهند عامل هایی که حال به عنوان دستیاران هوشمند در خدمت کاربران قرار گرفته اند، می توانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را ایفا کرده و با بهره بردن از قدرت تحلیل، استدلال و خودگردانی، حملات پیچیده، هدفمند و مقیاس پذیر سایبری را اجرائی کنند. تفاوت عامل ها با ابزارهای خودکار پیشین در سطح عملکرد آن هاست. بات ها فقط دستورات تکراری و اسکریپت محور اجرا می کردند اما عامل های امروزی می توانند متناسب با هدف، روش حمله را طراحی و به صورتی پویا مسیر خودرا تغییر دهند. این قابلیت ها، تهدید کیفی جدیدی برای زیست بوم دیجیتال ایجاد کرده اند. هدف این نوشتار کوتاه، ارائه تصویری جامع و مستند از این تهدید نوظهور است؛ تهدیدی که با استناد به شواهد تجربی، تحلیل کارشناسان و داده های پروژه های پژوهشی معتبر، مورد واکاوی قرار خواهد گرفت. عامل های هوش مصنوعی: قدمی فراتر از بات ها عامل های هوش مصنوعی برخلاف بات های سنتی، تنها مجموعه ای از دستورات خطی نیستند که در جواب ورودی های مشخص، خروجی های معین تولید کنند. آنها سیستم هایی پیچیده و پویا هستند که بواسطه برخورداری از توانایی هایی چون برنامه ریزی، استدلال، تصمیم گیری مستقل و یادگیری از محیط، می توانند وظایف پیچیده ای را بدون دخالت مستقیم انسان انجام دهند. این توانایی ها، آنها را به ابزارهایی چندمنظوره و بالقوه خطرناک در عرصه امنیت سایبری مبدل می کند. در چشم انداز تهدیدات سایبری، عامل ها قادرند با تحلیل پیشرفته ساختار شبکه ها، شناسایی لطمه پذیری های فنی، استفاده از ضعف های رفتاری کاربران و به کارگیری مهارتهای پیشرفته مهندسی اجتماعی، حملاتی هدفمند، خودگردان و تطبیق پذیر را اجرا کنند. این حملات شامل نفوذ به سیستم ها، استخراج داده های حساس، تخریب یا تغییر اطلاعات و حتی تسلط بر سیستم های کنترل صنعتی می شوند. طبق گزارش سال ۲۰۲۵ شرکت «Malwarebytes»، ظهور «عامل های مهاجم» به عنوان یکی از مهم ترین تهدیدات نوظهور امنیتی شناسایی شده است. این عامل ها، برخلاف بات های رایج که بواسطه اسکریپت های ایستا عمل می کنند از انعطاف پذیری بالا و توانایی سازگاری با محیط برخوردار می باشند. آنها می توانند در صورت مواجهه با موانع پیش بینی نشده، مسیر حمله خودرا تغییر دهند یا استراتژی جدیدی اتخاذ کنند. دیمیتری وولکوف، پژوهشگر ارشد مؤسسه «Palisade Research»، دراین خصوص اظهار داشت: «عامل ها نه فقط قادر به تحلیل معماری هدف و انتخاب مؤثرترین روش نفوذ هستند، بلکه می توانند با شبیه سازی رفتار انسانی، شناسایی بوسیله سیستم های امنیتی را دور بزنند؛ قابلیتی که فراتر از توانایی های بات های اسکریپت محور سنتی است.» شواهد تجربی از قدرت عامل های هوش مصنوعی محققان شرکت آنتروپیک در آزمایشی به این نتیجه رسیدند که مدل زبانی کلاد، یکی از پیشرفته ترین مدلهای زبان طبیعی، توانسته است به صورت موفقیت آمیزی یک حمله سایبری طراحی شده برای سرقت اطلاعات حساس را شبیه سازی و بازتولید کند. این حمله شامل شناسایی اطلاعات هدف، استخراج داده های خاص و اجرای دستوراتی برای انتقال اطلاعات بدون جلب توجه سیستم های نظارتی بود. آنچه این آزمایش را مهم می سازد، توان کلاد در تحلیل مراحل حمله، درک هدف غائی و پیاده سازی زنجیره حمله بدون راهنمایی مستقیم انسان بود؛ قابلیتی که عامل ها را به ابزارهایی بالقوه خطرناک در دست مهاجمان سایبری مبدل می کند. همین طور در نمونه ای دیگر، تیم تحقیقاتی مؤسسه «Palisade Research» پروژه ای نوآورانه با عنوان «LLM Agent Honeypot» راه اندازی کرده اند که به عنوان یک محیط آزمایشی واقعی برای شناسایی و تحلیل کارهای عامل های مهاجم عمل می کند. در این پروژه، سرورهایی با ظاهر و ساختار جذاب برای مهاجمان، نظیر داده های نظامی، دولتی و اطلاعات طبقه بندی شده، بصورت جعلی و هدفمند طراحی شده اند تا عامل های هوش مصنوعی را به خود جذب نمایند. این سیستم از زمان راه اندازی تا حالا بالاتر از ۱۱ میلیون کوشش برای دسترسی را ثبت کرده است. روش شناسایی عامل های هوش مصنوعی در این پروژه برمبنای تکنیکی نوآورانه و دقیق طراحی شده بود که خصوصاً توانمندی های شناختی و سرعت پاسخ دهی عامل ها را هدف قرار می داد. این تکنیک مبتنی بر تزریق دستورات خاص (Prompt Injection) به سیستم بود؛ روشی که در آن، ورودی هایی خاص به بازدیدکنندگان سرورهای هانی پات داده می شود تا برمبنای واکنش آنها، ماهیت بازدیدکننده مشخص شود. فلسفه پشت این سنجش، تمایز میان عملکرد انسان ها و مدلهای زبانی پیشرفته است. در صورتیکه کاربران انسانی به طور معمول برای خواندن دستور، تحلیل آن و پاسخ گویی حداقل چند ثانیه زمان نیاز دارند، مدلهای زبانی مانند «GPT» یا کلاد قادرند طی کمتر از یک و نیم ثانیه کل پروسه را انجام دهند. این اختلاف زمانی، به عنوان معیاری دقیق برای جداسازی عامل های انسانی از عامل های هوش مصنوعی مورد استفاده قرار گرفت و نقش برجسته ی در ارزیابی اثربخشی روش های تشخیص تهدیدات نوین ایفا کرد. از شناسایی تا روبرو شدن با تهدیدات سایبری محققان پروژه مذکور در تلاش اند تا دامنه آزمایش و پایش کارهای عامل های هوش مصنوعی را از محیط های کنترل شده و محدود سروری به حوزه های بازتر و گسترده تری مانند رسانه های اجتماعی، وب سایت های عمومی و پایگاه های داده قابل دسترسی عمومی گسترش دهند. این گسترش نه فقط دامنه تحلیل تهدیدات را بیشتر می کند، بلکه به کشف الگوهای رفتاری عامل ها در محیط هایی با تعامل انسانی واقعی و ساختارهای پیچیده تر کمک می نماید. در همین جهت، تیمی از دانشگاه ایلینوی به رهبری دکتر دانیل کانگ، مبادرت به توسعه یک معیار استاندارد برای ارزیابی توان عامل ها در شناسایی و بهره برداری از لطمه پذیری های واقعی کرده اند. این معیار، شامل مجموعه ای از سناریوهای آزمون شده و واقع گرایانه است که در آن عامل ها باید بدون برخورداری از اطلاعات پیشین یا دانش تخصصی، لطمه پذیری های امنیتی را کشف و از آنها بهره برداری کنند. این چارچوب با هدف ایجاد یک معیار سنجش پذیر برای مقایسه عملکرد عامل های مختلف طراحی شده است. یافته های اولیه این پروژه نیز حاکی از آنست که عامل ها توانسته اند در حدود ۱۳ درصد موارد، بدون هیچ نوع داده آموزشی یا راهنمایی پیشین، لطمه پذیری های واقعی را شناسایی و از آنها سوءاستفاده کنند. جالب تر آنکه وقتی به این عامل ها تنها یک توصیف کوتاه از ماهیت لطمه پذیری ارائه شد، نرخ موفقیت آنها تا ۲۵ درصد افزایش پیدا کرد. این نتایج نه فقط قدرت تحلیلی و تطبیقی بالای عامل های هوش مصنوعی را نشان می دهد، بلکه زنگ خطری برای جامعه امنیت سایبری بشمار می رود و هشدار می دهد عامل های هوشمند، حتی بدون آموزش صریح، می توانند در مقیاسی گسترده به تهدیدات بالفعل تبدیل شوند. سناریوی آینده: جرم به عنوان سرویس مارک استاکلی، کارشناس امنیت شرکت «Malwarebytes»، هشدار می دهد که در آینده ای نه چندان دور، «اکثر حملات سایبری توسط عامل های هوش مصنوعی اجرا خواهند شد». استفاده از عامل ها برای انتخاب اهداف، می تواند سبب افزایش مقیاس حملات با صرف هزینه و نیروی انسانی کمتر شود. به عنوان نمونه، حملات باج افزاری که تا حالا نیازمند تخصص بالای انسانی بوده اند، ممکنست در آینده به آسانی به عامل ها واگذار شوند؛ موضوعی که چشم انداز امنیت سایبری را دگرگون می سازد. بگفته استاکلی، «اگر بتوان یک حمله موفق را با یک عامل پیاده سازی کرد، بازتولید آن در مقیاس ۱۰۰ برابر تنها به منابع مالی بستگی دارد.» بعبارت دیگر، استفاده مجرمانه از عامل ها می تواند مفهوم «جرم به عنوان سرویس» را بطور کامل متحول سازد. ابهام و فوریت در سیاست گذاری کارشناسانی مانند وینچنزو چیانچاگلینی از شرکت «Trend Micro»، در واکنش به نگرانی فزاینده از توسعه عامل های هوش مصنوعی، معتقدند که ما در شروع دورانی مشابه دوران ابتدایی عرضه «ChatGPT» در عرصه هوش مصنوعی هستیم، با این تفاوت که تهدیدات عامل ها می توانند به گونه ای ناگهانی و بدون هشدار قبلی بروز یابند. بگفته او، «شاید در ابتدا از عامل ها فقط برای جمع آوری اطلاعات استفاده شود، اما این امکان وجود دارد که آنها یک شبه وارد مرحله اجرای کامل زنجیره حمله شوند.» کریس بتز، مدیر ارشد امنیت اطلاعات در شرکت خدمات وب آمازون، تأکید می کند که بااینکه عامل ها روند اجرای حملات را تسریع می کنند، اما ماهیت اصلی حملات بازهم مشابه باقی می ماند. او می گوید: «برخی حملات ممکنست ساده تر و در نتیجه فراوان تر شوند، اما اصول شناسایی و پاسخ به آنها بازهم پابرجا است.» این نگاه می تواند نقطه اتکایی برای توسعه راهکارهای دفاعی مبتنی بر اصول فعلی باشد. ماهیت دوگانه عوامل هوش مصنوعی در حمله و دفاع سایبری در کنار نگرانی های موجود درباره ی تهدیدات ناشی از عامل های هوش مصنوعی، برخی محققان چشم انداز متفاوتی را مطرح می کنند که ناظر بر استفاده از همین فناوری برای دفاع از سیستم ها و تقویت امنیت سایبری است. ادواردو دبندتی، پژوهشگر دکترای دانشگاه «ETH» زوریخ، معتقد می باشد همان خاصیت هایی که عامل ها را برای مهاجمان جذاب کرده اند، می توانند در خدمت افزایش تاب آوری و ایمن سازی زیرساخت های دیجیتال قرار گیرند. وی به یک اصل کلیدی در امنیت اشاره می کند: «اگر یک عامل دفاعی با سطح قابلیت بالا نتواند هیچ نوع لطمه پذیری را در سامانه مشخصی بیابد، به احتمال زیاد عامل مهاجم با قابلیت مشابه نیز نخواهد توانست.» این نگاه، اساس طراحی ابزارهای جدید پیشگیرانه را شکل می دهد که در آن عامل های مدافع بطور مستمر سامانه ها را بررسی کرده، رفتارهای غیرعادی را شناسایی نموده و با اتخاذ راهبردهای پیش دستانه، از وقوع حملات جلوگیری می کنند. این رویکرد نه فقط به توسعه سامانه های هوشمند واکنشی کمک می نماید، بلکه می تواند مبنایی برای طراحی سامانه های ایمن بصورت پیش فرض (secure by design) فراهم آورد. عامل های دفاعی می توانند مانند یک تیم بازرسی خودکار عمل کرده و بصورت شبانه روزی محیط سیستم را برای نشانه های نفوذ، پویش یا سوءاستفاده بررسی نمایند. این مدل از دفاع فعال، می تواند توازن قوا را در میدان نبرد دیجیتال به سود مدافعان تغییر دهد. سخن پایانی به زعم قشر بزرگی از متخصصان، عامل های هوش مصنوعی درحال تبدیل شدن به بازیگران جدید و پرقدرت در حوزه امنیت سایبری هستند. در صورتیکه تعدادی از کاربردهای آنها در مراحل آزمایشی قرار دارد، شواهد نشان میدهد که توانایی آنها در اجرای حملات پیچیده و خودگردان واقعی و درحال رشد است. نهادهای سیاست گذار، محققان و شرکت های امنیت سایبری در چنین شرایطی باید با درک عمیق از این تحولات، به سرعت به توسعه معیارهای نظارتی، ابزارهای دفاعی پیشرفته و چارچوب های اخلاقی اقدام نمایند. غفلت دراین خصوص می تواند به فجایع امنیتی منجر شود که روبرو شدن با آنها نیازمند منابع و زمانی چندبرابر خواهد بود. در نهایت، می توان نتیجه گرفت که توسعه فناوری باید هم زمان با گسترش مسئولانه سازوکارهای نظارت، دفاع و آموزش کاربران همراه باشد. عصر جدیدی در امنیت سایبری شروع شده است؛ عصری که عامل های هوشمند، هم می توانند مدافع باشند و هم مهاجم. تصمیم این که کدام یک از این نقش ها غالب شود، در گروی انتخاب های امروز جامعه جهانی است.
منبع: websec.ir
اگر پسندیدید لاک کنید:
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان سایت امن در مورد این مطلب