گزارش سایت امن؛

هوش مصنوعی و انتخابات آمریکا تهدیدی فراتر از اختلافات سیاسی

هوش مصنوعی و انتخابات آمریکا تهدیدی فراتر از اختلافات سیاسی سایت امن: با نزدیک شدن به انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی معطوف شده، تهدید رو به رشد فناوری های هوش مصنوعی مولد خصوصاً دیپ فیک ها، غیرقابل چشم پوشی است.



به گزارش سایت امن به نقل از مهر؛ انتخابات تنها فرصتی برای دولت ها نیست تا با بهره گیری از ابزارهای هوش مصنوعی مولد به تخریب اعتبار سیاستمداران بپردازند، بلکه فرصتی برای مجرمان سایبری نیز هست که با بهره بردن از این ابزارها، کلاهبرداری های مبتنی بر مهندسی اجتماعی را به صورت گسترده تر و پیچیده تری سازماندهی کنند.
با نزدیک شدن به موعد انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی در ماه نوامبر معطوف شده، تهدید رو به رشد فناوری های هوش مصنوعی مولد، خصوصاً دیپ فیک ها، غیرقابل چشم پوشی است. تهدیدات ناشی از سوءاستفاده از فناوری های هوش مصنوعی مولد بالاتر از هر زمان دیگری توجهات را به خود جلب کرده است. انتخابات در ایالات متحده نه فقط فرصتی برای دولت ها است تا با بهره گیری از ابزارهای هوش مصنوعی به تخریب اعتبار سیاستمداران بپردازند، بلکه عرصه ای مناسب برای مجرمان سایبری است که بوسیله ابزارهای پیشرفته تری چون دیپ فیک ها و مدلهای زبانی بزرگ، کلاهبرداری های پیچیده تری را سازماندهی کنند. نمونه های اخیر استفاده از دیپ فیک برای شبیه سازی تصاویر یا کلیپ های صوتی و تصویری سیاستمداران در آمریکا، نگرانی ها درباره ی نتایج بالقوه این فناوری ها برای سلامت فرآیندهای دموکراتیک را افزایش داده است.
سیاستمداران به علت جایگاه عمومی و تأثیرگذاری شان بر شهروندان، اهداف اصلی این نوع حملات هستند. افزایش توجه عمومی به کنشگران سیاسی در دوران انتخابات، این مسئله را شدت بخشیده و عرصه را برای بازیگران مخربی که در پی استفاده از این فنآوری ها در امتداد اختلال در فرایندهای سیاسی هستند، باز می کند.
وبگاه خبری NBC News سال قبل در گزارشی اعلام نمود که ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاست ها، استفاده از هوش مصنوعی و سایر رسانه ها در امتداد فریب مخاطبان را محدود کند. طبق قانونی که انتظار می رود در ایام آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپین های انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در پروسه تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همین طور استفاده از محتوای دیپ فیک بدون نشانه گذاری شفاف را تا ۹۰ روز بعد از انتخابات نیز غیرمجاز است.
این وبگاه خبری همین طور در آن بازه زمانی اعلام نمود که ایالت های کالیفرنیا، مینه سوتا، تگزاس و واشنگتن قوانینی را تصویب کرده اند که استفاده از دیپ فیک در تبلیغات سیاسی را محدود می کند. طبق گزارش های پخش شده، قوانین مشابهی نیز در ایلینویز، کنتاکی، نیوجرسی و نیویورک در دست بررسی قرار دارد.
به عقیده کارشناسان، در این بین، دو دسته از مخالفان سیاسی بصورت جدی به استفاده از این ابزارهای هوش مصنوعی برای شبیه سازی سیاستمداران علاقمند هستند: دولت ها و جناح های سیاسی خواهان تشدید بی ثباتی: هدف اصلی این گروه، تیره سازی اعتبار یک نامزد و احیانا تغییر نتایج انتخابات به سود خود است. مجرمان سایبری: این دسته از افراد با سوءاستفاده از اعتبار و نفوذ هدفشان، تلاش می کنند قربانیان را درگیر توطئه های مهندسی اجتماعی خود کنند و آنها را به اقداماتی مقابل منافع خود، مانند سرمایه گذاری در ارزهای دیجیتال غیرمعتبر یا کمک به یک کمپین سیاسی جعلی وادار نمایند.

حمله به اعتبار افراد و جناح ها

توانایی دیپ فیک ها و مدلهای زبانی هوش مصنوعی در پایین آوردن اعتبار سیاستمداران برای تأثیرگذاری بر نتایج انتخابات، یکی از واقعیت های تلخ عصر رسانه های اجتماعی شمرده می شود. این ابزارها قابلیت ایجاد داده های تاریخی غیرواقعی و تقویت «اخبار جعلی» را دارند. در صورتیکه کمپین های اطلاعات ناصحیح پدیده ای جدید به شمار نمی روند اما موعد برگزاری انتخابات، بستر ویژه ای برای سازندگان و نشردهندگان اطلاعات جعلی و شایعات فراهم می آورد، برای اینکه رای دهندگان در این بازه های زمانی بیشتر پذیرای پیام های سیاسی هستند. در ادامه به مرور چند نمونه اخیر از این وضعیت می پردازیم.
در انتخابات ملی لهستان در سال ۲۰۲۳، بزرگ ترین حزب مخالف، یک آگهی تبلیغاتی انتخاباتی منتشر نمود که کلیپ های واقعی نخست وزیر را با کلیپ های جعلی به وجود آمده توسط هوش مصنوعی ترکیب کرده بود. در همان سال، یک کلیپ صوتی جعلی از نامزد حزب کارگر بریتانیا، کی یر استارمر، که در آن به کارمندانش ناسزا می گفت، در فضای مجازی میلیونها بازدید را به خود اختصاص داد. همچنین، در آستانه انتخابات ۲۰۲۴ آمریکا، شاهد دیپ فیک هایی از تصاویر دستگیری دونالد ترامپ بودیم.
در همه این موارد، دیپ فیک ها برای تخریب اعتبار نامزدها و کاهش محبوبیت آنها در رقابت های انتخاباتی به کار گرفته شده اند.

سوءاستفاده از انتخابات برای منافع مالی

تنها دولت ها نیستند که به انتخابات علاقه نشان می دهند؛ این رویدادها فرصتی بسیار جذاب برای مجرمان سایبری نیز فراهم می کنند. تحلیل روندهای موجود در کارهای سایبری در رابطه با دیپ فیک ها نشان میدهد که این فناوری به چندین روش مورد بهره برداری قرار می گیرد.
استفاده از دیپ فیک در حملات سایبری هدفمند در طول سالهای اخیر به شدت بالا رفته است. در این موارد، مجرمان سایبری از دیپ فیک ها برای تقلید قانع کننده از فردی آشنا برای قربانی استفاده می نمایند. هدف اینگونه حملات عمدتا بهره برداری مالی بوسیله فریب کاربران است. برمبنای براوردهای صورت گرفته، این استراتژی در محیط های کاری و شخصی به وفور مشاهده شده است و قشر بزرگی از کارها، کلاهبرداری با جعل هویت مدیران اجرائی در ایمیل های کاری گرفته تا کلاهبرداری های ناظر بر روابط شخصی قربانیان را شامل می شود. موفقیت این نوع کلاهبرداری ها به توانایی فریب قربانیان و القای این باور استوار است که با شخص واقعی درحال ارتباط هستند؛ در صورتیکه افراد در حقیقت با محتوای صوتی یا تصویری دست کاری شده مواجهند.
افزون بر این، کاربرد دیپ فیک ها فراتر از حملات شخصی سازی شده رفته و به کلاهبرداری های گسترده تر نیز رسیده است. در طول سالهای اخیر شاهد مواردی هستیم که در آن مجرمان سایبری با جعل هویت یک شخصیت عمومی از جایگاه و تأثیر او برای ترویج طرح های مالی مشکوک استفاده می نمایند. هم اکنون، نظر می رسد که عملیات کلاهبرداری ارزهای دیجیتال به گزینه محبوبی در بین مجرمان سایبری تبدیل گشته باشد.
چنین کلاهبرداری هایی در همه ایام سال می توانند رخ دهند، اما فصل انتخابات فرصت ویژه ای برای مجرمان سایبری فراهم می آورد تا بوسیله دیپ فیک سیاستمداران، رای دهندگان و طرفداران آنها را هدف قرار دهند. با نزدیک شدن به انتخابات، رای دهندگان پذیرای پیام های بیشتری از طرف نامزدها هستند و این امر محیطی مناسب برای کلاهبرداری مالی به وجود می آورد.

ابزارهای هوش مصنوعی مولد

چشم انداز انتخابات با رشد پیچیدگی و دسترسی ابزارهای هوش مصنوعی درحال تغییر است؛ تغییری که مجرمان سایبری در فصل انتخابات برای حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی از آن بهره برداری می کنند. ظهور ابزارهای ساده و کاربرپسند برای ایجاد دیپ فیک ها، بجای ابزارهای پیچیده تر نظیر «DeepFaceLab»، این عرصه را متحول کرده است.
هوش مصنوعی مولد به مجرمان سایبری ابزارهای پیشرفته ای ارائه می دهد تا چهره های مجازی و واقع گرایانه ای از نامزدهای سیاسی بسازند. این چهره ها می توانند رای دهندگان را فریب دهند تا به کمپین های جعلی کمک مالی کنند، در طرح های کلاهبرداری سرمایه گذاری نمایند یا در جمع آوری کمک های خیریه تقلبی مشارکت داشته باشند. رویدادهایی چون ماجرای تبلیغ کارت های «NFT» توسط دونالد ترامپ یا حمایت ایلان ماسک از ارز دیجیتال «دوج کوین»، مبین امکان پذیری چنین کلاهبرداری هایی در سطح کلان است.
با توجه به گستردگی توجه عمومی به نامزدهای انتخاباتی، مجرمان سایبری با بهره بردن از ابزارهای هوش مصنوعی در سناریوهای مختلف تهدید، زمین حاصلخیزی برای فعالیت خود می یابند.

مدل های زبانی بزرگ: مهندسی اجتماعی رای دهندگان در مقیاس وسیع

مدل های زبانی بزرگ (LLMs) مانند «ChatGPT» از شرکت «OpenAI» و «Llama» متعلق به شرکت «Meta» در سالهای اخیر شاهد پیشرفت های قابل توجهی از بهبود عملکرد و دسترسی گسترده تر گرفته تا کاهش نیازهای محاسباتی بوده اند.
پلتفرم «HuggingFace»، که بصورت عمومی میزبان مدلهای هوش مصنوعی متن باز است، هم اکنون بالاتر از یک میلیون مدل هوش مصنوعی همچون ۳۲ هزار مدل زبانی متن باز را در خود جای داده است. این مدلها که برای نیازهای مختلفی همچون زبان های خارجی، تولید متن و چت بات ها به کار می روند، به روی همه کاربران، همچون مجرمان سایبری باز هستند.

جرایم دیجیتال و بهره برداری از مدلهای زبانی برای کارهای غیرقانونی

در دنیای جرایم دیجیتال، خدمات مدلهای زبانی بزرگ بطور فزاینده ای برای کارهای غیرقانونی مورد استفاده قرار می گیرند. رواج این خدمات تهدیدی بالقوه برای رای دهندگان ایجاد می کند، برای اینکه مجرمان می توانند از این مدلها برای طراحی کلاهبرداری های پیچیده بهره ببرند.
نخستین گام در طراحی کلاهبرداری های انتخاباتی شناسایی گروههای ذی سود مناسب محسوب می شود. از آنجائیکه رای دهندگان به گونه ای فزاینده ای به دو دسته تقسیم شده اند، مجرمان تلاش می کنند تا از این شکاف اجتماعی بهره برداری کنند. در این فرایند، مدلهای زبانی بزرگ به اشکال گوناگونی مورد استفاده فرار می گیرند. مدلهای مبتنی بر هوش مصنوعی مولد می توانند با تحلیل پروفایل های رسانه های اجتماعی، افرادی با علایق خاص را شناسایی کنند. مدلهای زبانی بزرگ قادرند با بررسی اطلاعات عمومی، تمایلات و ترجیحات سیاسی افراد را برمبنای کارهای آنها در رسانه های اجتماعی استنتاج نمایند. این مدلها همین طور می توانند در تشکیل گروههای ذی سود در رسانه های اجتماعی مؤثر باشند. به عنوان مثال، یک مجرم سایبری می تواند یک گروه فیسبوک با عنوان «نامزد X برای ریاست جمهوری - شاخه فلوریدا» به وجود آورده و با انتشار پست های بحث برانگیز، قربانیان احتمالی خودرا جذب نماید.
مجرم ممکنست برای موفقیت یک کلاهبرداری به شبکه ای از پلت فرم های جعلی نیاز داشته باشد تا بوسیله آنها به تبلیغ سیاست های دروغین، پیام های جعلی از یک نامزد یا جمع آوری کمک های مالی بپردازد. این پلت فرم ها به تقویت داستانهای گمراه کننده کمک می کنند. مدلهای زبانی بزرگ می توانند به سرعت این سایت ها را بسازند و حتی از منابع شبیه به سایت های رسمی کمپین های انتخاباتی بهره بگیرند. علاوه بر این، مدلهای زبانی بزرگ می توانند با بهینه سازی موتورهای جستجو، جایگاه این سایت های جعلی را در نتایج ارتقا دهند و مشروعیت ظاهری آنها را تقویت نمایند.

پیام های شخصی سازی شده برای تأثیرگذاری بیشتر

بسیاری از رای دهندگان به دریافت ایمیل های عمومی از طرف نامزدها که اغلب بدون هیچ نوع شخصی سازی به همه رای دهندگان ارسال می شوند، عادت دارند اما مجرمان حرفه ای می توانند پیام های فیشینگ را به شکلی تنظیم کنند که به طور دقیقتر برای هر قربانی مناسب و شخصی باشد. هدف گیری قربانیان در گروههای خاص، امکان ارسال پیام های دقیق تر را فراهم می آورد، برای اینکه موضوعات در مقطع برگزاری انتخابات به طور معمول مشترک هستند. ابزارهایی مانند «ChatGPT» می توانند با ترکیب علایق رای دهندگان، پیام جعلی و عناصر کارهای اجتماعی آنها در رسانه های اجتماعی، متن هایی بسیار دقیق و هدفمند تولید کنند. این توانایی می تواند در مقیاس وسیع و حتی به زبان های مختلف صورت پذیرد و محتوا برای ایمیل های فیشینگ یا اسکریپت های ویدیو های دیپ فیک تهیه گردد.
چه باید کرد؟
با ذکر همه مواردی که در این نوشتار یاد شده قرار گرفت، پرسشی عمیق در ذهن شکل می گیرد. آیا امکان دارد که رای دهندگان بتوانند حقیقت را از دروغ تشخیص دهند؟
وبگاه گاردین در گزارشی به تاریخ فوریه ۲۰۲۴ درباره ی انتخابات آمریکا، اعلام نمود که شرکت «Midjourney»، سازنده پلت فرم مشهور هوش مصنوعی تبدیل متن به عکس، درنظر دارد استفاده از نرم افزار خود برای ساختن تصاویر سیاسی جو بایدن و دونالد ترامپ را ممنوع کند. این رسانه بریتانیایی همین طور اذعان داشت که این اقدام، قسمتی از تلاشی شرکت مذکور برای جلوگیری از انتشار اطلاعات ناصحیح در بحبوحه انتخابات ریاست جمهوری ۲۰۲۴ آمریکا بشمار می رود.
یکی از ابتکارات برای کاهش لطمه های احتمالی یک دیپ فیک، نشانه گذاری تصاویر مبتنی بر هوش مصنوعی است. این نوع از برچسب گذاری به افراد اجازه می دهد که خالق تصویر، تغییرات اعمال شده و منبع آنها را شناسایی نموده و به این ترتیب، دیپ فیک ها را تشخیص دهند. در این بین، خبر امیدوارکننده این است که بازیگران بزرگ فناوری مانند «OpenAI»، متا، گوگل و آمازون قبل از این بارها آمادگی خود برای مشارکت در چنین طرح هایی را اعلام نموده اند.
علاوه بر این، شرکت «Trend Micro» اخیراً یک اپلیکیشن رایگان به نام «Trend Micro Deepfake Inspector» ارائه کرده است که مخصوص تشخیص تماسهای ویدئویی دیپ فیک طراحی شده و می تواند مکالمات جعلی را در لحظه شناسایی کند. این ابزار می تواند به شناسایی مؤثر محتوای جعلی صوتی مبتنی بر هوش مصنوعی منجر شود.
به زعم خیلی از کارشناسان، در آینده همین طور ممکنست شاهد تعهداتی از طرف سیاستمداران باشیم که از رسانه های اجتماعی برای درخواست کمک مالی یا تبلیغات سرمایه گذاری استفاده نکنند. با این وجود، این تعهدات بطور کامل تهدید دیپ فیک های مجرمانه را از بین نمی برد، چونکه افراد بصورت طبیعی تمایل به اعتماد دارند.
سخن پایانی
همان طور که قبل تر و بارها در گزارش های مختلف به آثار مخرب دیپ فیک ها اشاره شده، نمی توان از تأثیرات سیاسی فزاینده این ابزار در ایجاد بی نظمی در پروسه انتخابات چشم پوشی کرد. امری که می تواند طی سال های آتی ورای انتخابات آمریکا، در هر نقطه دیگری جهان نیز رقم بخورد.
از سوی دیگر، پیشرفت های هوش مصنوعی ابزارهای پیشرفته ای را در اختیار مجرمان سایبری قرار می دهد تا اهداف خودرا شناسایی، آنها را دست کاری و به گونه ای قانع کننده چهره های عمومی معتبر را برای اجرای کلاهبرداری ها جعل کنند. پیچیدگی و مقرون به صرفه بودن بیش از پیش این ابزارهای آماده به کار نشان میدهد که احیانا استفاده از آنها برای بهره برداری مالی از فصل انتخابات افزایش خواهد یافت.
بنابراین، این مساله از اهمیت بسیاری برای مصرف کنندگان و رای دهندگان برخوردارست. پیچیدگی این تهدیدات و تأثیر احتمالی آن بر رای دهندگان، اهمیت آگاهی و احتیاط در این زمینه را دوچندان می کند. حتی اگر برخی بازیگران بدنبال بی نظمی در نتایج انتخابات باشند، سایر مجرمان سایبری ممکنست تنها بدنبال فریب قربانیان باشند.

1403/08/14
09:27:59
96
5.0 / 5
تگهای خبر: اپل , اپلیكیشن , چت , خدمات
اگر پسندیدید لاک کنید:
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان سایت امن در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۲
سایت امن
websec.ir - حقوق مادی و معنوی سایت سایت امن محفوظ است

سایت امن

گواهی امنیت وب