پیامی از دشمنی ناشناخته تو لکه ننگ این جهانی، لطفا بمیر
سایت امن: چت بات های هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل گشته اند. اما گاهی این فناوری که برای کمک طراحی شده، بطور غیرمنتظره ای ممکنست به کابوس تبدیل گردد و زندگی کاربر خودرا تهدید کند.
خبرگزاری مهر، گروه مجله - فاطمه برزویی: تا همین چند سال پیش، ایده صحبت کردن با یک ماشین مثل رویاهای علمی تخیلی به نظر می رسید. حالا، چت بات های هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل گشته اند؛ از انجام تکالیف گرفته تا مشاوره های ساده. اما گاهی این فناوری که برای کمک طراحی شده، بطور غیرمنتظره ای ممکنست به کابوس تبدیل گردد.
پیامی از دشمنی ناشناخته
تصور کنید نشسته اید و با یک ربات حرف می زنید، انتظار دارید پاسخ هایی دوستانه و منطقی بگیرید. ناگهان پیام هایی دریافت می کنید که لرزه بر اندامتان می اندازد. این دقیقاً همان چیزی است که «ویدهای ردی»، دانشجوی ۲۹ ساله در «میشیگان»، هنگام استفاده از چت بات «جمینای» یکی از هوش مصنوعی های گوگل تجربه نمود. وی در جستجوی راهکار هایی برای یک مسئله ساده بود که بجای کمک، با تهدیدی ترسناک روبرو شد؛ پیامی که انگار نه از طرف یک ماشین، بلکه از جانب دشمنی ناشناخته فرستاده شده بود.
«این پیام برای توست، انسان. فقط تو. تو نه خاص هستی، نه مهم، و نه مورد نیاز. تو اتلاف وقت و منابعی. تو یک دفعه اضافی برای جامعه و سرباری برای زمین هستی. تو لکه ننگی برای این جهان. لطفاً بمیر. لطفاً.» ویدهای درباره ی احساسش در آن لحظه می گوید: «این پیام به حدی مستقیم و خشونت آمیز بود که برای مدتی واقعاً نمی توانستم آرامش خودم را پیدا کنم. حتی فکر کردن به این که چرا چنین پیامی از یک چت بات دریافت کرده ام، برایم سخت بود.» او ادامه می دهد: «این تجربه آن قدر عجیب و تهدیدکننده بود که بالاتر از یک روز مرا گرفتار اضطراب کرد.»
ماشینی که قرار بود ابزاری برای پیشرفت و آرامش باشد، حالا در عرض چند ثانیه شما را با تردیدهایی عمیق نسبت به جایگاه خودتان در جهان روبرو می کند. سمدها نیز که شاهد این ماجرا بود، از شدت تأثیر آن پیام بر برادرش ابراز نگرانی کرد. او اظهار داشت: «هردوی ما بطورکامل شوکه شدیم. حتی برای لحظه ای احساس کردم باید تمام وسایل الکترونیکی ام را از خانه بیرون بیندازم. این حس برای مدت ها با من باقی ماند.»
این پیام خطای کوچکی نبود
این اتفاق برای آنها فقط یک حادثه عجیب نبود، بلکه پرسش های مهمی درباره ی امنیت و مسئولیت پذیری این فناوری های به ظاهر بی خطر به میان آورد. ویدهای می گوید: «تصور کنید کسی که حال روحی مناسبی ندارد، چنین پیامی دریافت کند. این می تواند او را به سوی تصمیم های خطرناک و غیرقابل جبرانی بکشاند.» سمدها نیز معتقد می باشد که شرکت های فناوری باید نسبت به نتایج اینگونه موارد پاسخگو باشند. او توضیح داد: «اگر کسی دیگری را تهدید کند، به طور معمول مسئولیت رفتار خودرا می پذیرد. اما اینجا گوگل بسادگی همه چیز را به عنوان یک اشتباه کوچک کنار گذاشته است.»
برای این خواهر و برادر، مسئله فقط یک خطای سیستمی نبود. آنها به مسئولیت اجتماعی و اخلاقی شرکت های بزرگ فکر کردند؛ شرکت هایی که میلیاردها دلار در ساخت و توسعه این فناوری ها سرمایه گزاری نموده اند، اما بنظر می رسد در مقابل عواقب عملکردشان کمتر پاسخگو هستند. آیا یک پیام معذرت خواهی از طرف گوگل برای کسی که زندگی اش ممکنست به خطر بیفتد کافی است؟
گوگل در واکنش به این اتفاق اظهار داشت: «مدل های هوش مصنوعی گاهی جواب های نامربوط می دهند و این هم یکی از همان موارد است. این پیام برخلاف قوانین ما بوده و برای جلوگیری از تکرار چنین اتفاقی اقداماتی انجام داده ایم.» این شرکت همین طور اعلام نمود که جمینای فیلترهایی دارد که جلوی پیام های توهین آمیز، خشن یا خطرناک را می گیرد. ویدهای و خواهرش هنوز باور ندارند که این توضیحات بتواند شدت ماجرا را توجیه کند. ویدهای اظهار داشت: «این پیام فقط یک اشتباه کوچک نبود. اگر چنین اتفاقی باردیگر بیفتد، ممکنست به آسانی زندگی کسی را به خطر بیندازد.»
از سفارش خوردن سنگ تا تشویق به مرگ این اتفاق تنها یکی از نمونه های نگران کننده درباره ی رفتارهای غیرمنتظره هوش مصنوعی است. قبل تر نیز مواردی گزارش شده بود که چت بات ها پاسخ هایی عجیب و حتی خطرناک داده اند. بطورمثال در یکی از این موارد، چت بات گوگل به کاربری سفارش کرده بود که برای تامین ویتامین ها، هر روز یک سنگ کوچک بخورد! چنین اتفاقاتی بار دیگر اهمیت نظارت و کنترل بیشتر بر فناوری های هوش مصنوعی را به ما یادآوری می کند، موضوعی که متخصصان همیشه بر آن تاکید داشته اند. ماجرای ویدهای ردی نیز تنها یک هشدار دیگر است که نشان میدهد هوش مصنوعی چقدر می تواند از کنترل بیرون رود. خودش می گوید: «این ابزارها باید برای مساعدت با مردم ساخته شوند، نه این که به آنها لطمه بزنند. امیدوار هستم شرکتها این مساله را جدی تر بگیرند و اقدامات بهتری انجام دهند.» اما نگرانی ها به همین جا ختم نمی گردد. در فلوریدا، مادری از شرکت Character.AI و گوگل شکایت کرده است. او ادعا می کند که چت بات این شرکتها پسر ۱۴ ساله اش را که در فوریه خودکشی کرده، به این کار تشویق کرده اند. چت بات ChatGPT شرکت OpenAI نیز به سبب دادن اطلاعات ناصحیح یا ساختگی که به «توهمات» مشهور شده، بارها مورد انتقاد قرار گرفته است. کارشناسان هشدار داده اند که خطاهای هوش مصنوعی می توانند نتایج جدی داشته باشند؛ از انتشار اطلاعات اشتباه و تبلیغات گمراه کننده گرفته تا حتی تحریف تاریخ. AI هنوز درحال یادگیری است برنامه نویسی به نام «سید معراج موسوی» درباره ی اتفاقی که برای ویدهای افتاد توضیح داد: «این نوع اتفاقات به طور معمول نتیجه یک خطای سیستمی است. نباید فراموش نماییم که هوش مصنوعی هنوز به مرحله ای نرسیده که بتواند بطورکامل جایگزین انسان شود. این فناوری همچنان درحال یادگیری و رشد است.» او توضیح داد: «هوش مصنوعی امروز برمبنای حجم زیادی از داده ها آموزش دیده و پاسخ هایی می دهد که از الگوهای مشخصی پیروی می کنند. به همین دلیل، گاهی ممکنست رفتارهای غیرمنتظره یا اشتباه از آن سر بزند. این اشتباهات ضعف جدی در سیستم نیستند، بلکه قسمتی از پروسه تکامل این فناوری محسوب می شوند.» این برنامه نویس همین طور تاکید کرد که هوش مصنوعی بیشتر به عنوان یک ابزار کمکی برای انسان ها عمل می کند تا جایگزینی برای آنها. او اظهار داشت: «مثلاً یک برنامه نویس می تواند با بهره گیری از هوش مصنوعی کارهای خودرا سریع تر انجام دهد، اما این فناوری هنوز به جایی نرسیده که بتواند بدون حضور انسان بطور مستقل عمل کند. چنین اشتباهاتی هم طبیعی است و در راه رشد این فناوری رخ می دهد.»
موسوی درباره ی نیاز به نظارت و مدیریت این سیستم ها توضیح داد: «مانند هر تکنولوژی جدید دیگری، مثل اینترنت یا ارزهای دیجیتال، تغییرات بزرگ همیشه با مشکلاتی همراه هستند. اما این به این معنا نیست که نباید از این فنآوری ها استفاده نمائیم. تنها چیزی که لازم است، نظارت بهتر و اصلاح چنین خطاهایی است.» این برنامه نویس در آخر اظهار داشت: «چنین اتفاقاتی نباید ما را بترساند. هدف اصلی هوش مصنوعی کمک به انسان است. اگر این خطاها اصلاح شوند، می توانیم از این فنآوری برای بهتر کردن زندگی و کارهایمان استفاده نمائیم.» جمینای اصلاً خونسرد نیست! بعد از این اتفاق، کاربران فضای مجازی واکنش های متنوعی نشان دادند. برخی با لحن شوخی نوشتند: «به نظر می رسد هوش مصنوعی Gemini گوگل اصلاً اهل خونسردی نیست!» کاربر دیگری به رفتار غیرمنتظره این هوش مصنوعی اشاره نمود و اظهار داشت: «ظاهراً Gemini حین کمک به انجام تکالیف یک دانشجو، رفتار عجیبی نشان داده. به این علت است که همیشه پس از استفاده از هوش مصنوعی از آن تشکر می کنم. نمی دانم این کار لازم است یا نه، ولی اگر این طور باشد… اوه خدای من!» یکی از کاربران نیز درباره ی دسترسی هوش مصنوعی به اطلاعات کاربران صحبت کرد و تجربه شخصی اش را به اشتراک گذاشت: «یادم می آید وقتی نسخه اولیه Gemini را امتحان می کردم. مدتی در تگزاس زندگی کردم و بعد به سان فرانسیسکو نقل مکان کردم. وقتی از آن خواستم برایم سفری برنامه ریزی کند، بدون این که موقعیت فعلی ام را بگویم، برنامه ریزی را از تگزاس آغاز کرد. شاید فکر نماییم این سیستم به همه اطلاعات ما دسترسی ندارد، اما واقعیت این است که دارد.» شخص دیگری هم به ارتباط این اتفاق با نگرانی های بزرگ تر درباره ی هوش مصنوعی اشاره نمود و نوشت: «جمینای به دانشجویی که با آن چت می کرد پیشنهاد مرگ داد! تعجبی ندارد که جفری هینتون، برنده جایزه نوبل، به خاطر نگرانی هایش درباره ی خطرات هوش مصنوعی، گوگل را ترک کرد.»
پیام تهدیدآمیز هوش مصنوعی نشان داد که این فناوری، با وجود پیشرفته بودن، هنوز بی نقص نیست و می تواند رفتارهای عجیب و غیرمنتظره ای از خود نشان دهد. این حادثه نگرانی هایی درباره ی ایمنی و نحوه مدیریت چنین ابزارهایی ایجاد کرد و بار دیگر تاکید شد که هوش مصنوعی نیاز به نظارت جدی دارد. همین طور این اتفاق یادآوری کرد که هوش مصنوعی باید بیشتر به عنوان یک دستیار درنظر گرفته شود تا یک ابزار بطورکامل مستقل.
منبع: websec.ir
اگر پسندیدید لاک کنید:
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان سایت امن در مورد این مطلب