براساس شكایتی تازه؛
هوش مصنوعی عامل خودکشی یک نوجوان شد
به گزارش سایت امن، یک زن اهل فلوریدا از یک استارت اپ سازنده چت بات هوش مصنوعی شکایت و آنرا متهم کرده دلیل خودکشی پسر ۱۴ ساله اش در ماه فوریه بوده است.
به گزارش سایت امن به نقل از رویترز، او مدعی شده فرزندش به سرویس شرکت «کاراکتر ای آی» معتاد و بشدت به چت بات ابداعی آن وابسته شده بود. «مگان گارسیا» در شکایتی که در ایالت فلوریدا ثبت کرده، مدعی شده شرکت «کاراکتر ای آی» با عرضه تجربیات بشدت واقع گرایانه و شبیه انسان پسرش «سول ستزر» را هدف گرفته است. او اعلام نمود این شرکت چت باتش را طوری برنامه ریزی کرده تا خویش را به اشتباه شبیه یک فرد واقعی، یک روانشناس دارای مجوز، و یک دوست بزرگسال معرفی نماید که همین موارد سبب شد «سول» دیگر تمایلی جهت زندگی در خارج از جهانی که با این سرویس خلق شده بود، نداشته باشد. همینطور در شکایت ذکر شده این پسر ۱۴ ساله افکارش در رابطه با خودکشی را به چت بات اظهار کرده بود و ابزار هوش مصنوعی به صورت مرتب به این مساله اشاره می کرد. «کاراکتر ای آی» در اطلاعیه ای اعلام نمود: ما از خبر از دست دادن ناراحت کننده یکی از کاربرانمان دل شکسته ایم و به خانواده او عمیقاً تسلیت می گوییم. همینطور شرکت اظهار داشت خصوصیت های امنیت جدیدی عرضه کرده همچون آن که اگر کاربری افکاری در رابطه با آزار رساندن به خویش را بیان کند، پیام «پاپ آپی» او را به خطوط تلفنی پیش گیری از خودکشی راهنمایی می کند. علاوه بر آن شرکت مذکور تغییراتی انجام داده تا احتمال برخورد کاربران زیر ۱۸ سال با محتوای حساس یا ترغیب کننده را کم کند. علاوه بر آن چه گفته شد شکایت مذکور گوگل را هم هدف گرفته چونکه بنیانگذار «کاراکتر ای آی» پیش از عرضه محصولش در این شرکت کار می کرده است. گوگل در آگوست سال جاری میلادی وی را باردیگر استخدام کرد که این اقدام قسمتی از معامله ای برای دریافت مجوز فناوری کاراکتر ای آی بود. گارسیا مدعی شده کمک گوگل به توسعه فناوری این شرکت چنان وسیع است که میتوان آنرا یکی از خالقان هوش مصنوعی مذکوردانست. از طرف دیگر سخنگوی گوگل مدعی شده این شرکت در توسعه محصول کاراکتر ای آی نقشی نداشته است.
اگر پسندیدید لاک کنید:
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان سایت امن در مورد این مطلب