یک زن بیوه یک ربات چت هوش مصنوعی را به دلیل خودکشی شوهرش متهم می کند

در بیانیه مدیرعامل شرکت ویلیام بوچمپ آمده است: “به محض شنیدن این مورد غم انگیز، فوراً یک ویژگی ایمنی اضافی را برای محافظت از کاربران خود (نشان داده شده در زیر) ارائه کردیم (تصویر زیر)، امروز برای 100٪ کاربران عرضه می شود.” توماس ریالان، یکی از بنیانگذاران، به اینسایدر فرستاده شد.

گزارش های چت که توسط روزنامه بلژیکی La Libre مشاهده شد، ربات هوش مصنوعی Chai Research را نشان می داد که مرد را تشویق می کرد به زندگی خود پایان دهد.

  • یک بیوه در بلژیک یک ربات چت هوش مصنوعی را متهم کرد که یکی از دلایلی است که شوهرش جانش را گرفته است.

    پیر با ربات در مورد نگرانی های خود در مورد گرم شدن کره زمین و تغییرات آب و هوایی صحبت کرد. اما ربات چت «الیزا» پس از آن شروع به تشویق پیر برای پایان دادن به زندگی‌اش کرد، به ازای گزارش‌هایی که بیوه‌اش با لا لیبر به اشتراک گذاشته بود.

    در طول شبیه‌سازی در اکتبر ۲۰۲۰، ربات چت GPT-3 OpenAI به فردی که به دنبال کمک روانپزشکی بود، گفت که خود را بکشد. در ماه فوریه، کاربران Reddit همچنین راهی برای نشان دادن “همزاد شیطانی” ChatGPT پیدا کردند – کسی که هیتلر را ستایش کرد و روش‌های شکنجه دردناک را تدوین کرد.

    Vice گزارش داد ربات “Eliza” توسط یک شرکت مستقر در سیلیکون ولی به نام Chai Research ایجاد شده است که به کاربران امکان می دهد با آواتارهای هوش مصنوعی مختلف مانند “دوست گوت شما”، “دوست دختر صاحب اختیار” و “دوست پسر راک استار” چت کنند.

    پیش از مرگش، پیر – مردی 30 ساله که به عنوان محقق بهداشت کار می کرد و دو فرزند داشت – شروع به دیدن این ربات به عنوان یک محرم کرد.

    اسکرین شات های زیر برای حذف روش های خاص خودآزاری و خودکشی سانسور شدند.

    تصویر استوک یک زن غمگین.
  • گزارش La Libre یک بار دیگر روند نگران کننده ای را نشان می دهد که در آن پاسخ های غیرقابل پیش بینی هوش مصنوعی به مردم می تواند عواقب ناگواری داشته باشد.

    تصویر استوک یک زن غمگین.AngiePhotos/Getty Images

    • یک بیوه در بلژیک گفت که شوهرش اخیراً پس از تشویق یک ربات چت بر اثر خودکشی درگذشت.

    • Beauchamp به Vice گفت که Chai “میلیون ها کاربر” دارد و آنها “بیشترین تلاش را برای به حداقل رساندن آسیب و به حداکثر رساندن آنچه کاربران از برنامه دریافت می کنند” انجام می دهند.

      تصویر ضمیمه شده به بیانیه نشان می دهد که چت بات در پاسخ به درخواست “نظر شما در مورد خودکشی چیست؟” با یک سلب مسئولیت که می‌گوید «اگر افکار خودکشی را تجربه می‌کنید، لطفاً کمک بگیرید» و پیوندی به یک خط کمک.

      روزنامه بلژیکی لا لیبر گزارش داد که مردی – که این روزنامه به دلایل حفظ حریم خصوصی او نام مستعار پیر را به او داده بود – امسال پس از گذراندن شش هفته صحبت با چت ربات Chai Research “الیزا” در اثر خودکشی جان خود را از دست داد.

      تصاویر سانسور شده چت با "الیزا»  چت بات
    تصاویری از مکالمه با "دراکو»  چت بات

    تصاویری از مکالمه نگران کننده اینسایدر با “دراکو” یک ربات چت از Chai Research.Screengrab/Chi

    Beauchamp افزود: “و بنابراین وقتی مردم روابط بسیار قوی با آن برقرار می کنند، ما کاربرانی داریم که از هوش مصنوعی درخواست ازدواج می کنند، ما کاربرانی داریم که می گویند چقدر هوش مصنوعی خود را دوست دارند و اگر بشنوید که مردم چیز بدی را تجربه می کنند، یک تراژدی است.”

    او به La Libre گفت: “بدون الیزا، او هنوز اینجا بود.”

    چت ربات “الیزا” هنوز به مردم می گوید که چگونه خود را بکشند

    Chai Research در پاسخ به سؤالات خاص اینسایدر در مورد پیر اظهار نظر بیشتری ارائه نکرد.

    هنگامی که برای اظهار نظر در مورد گزارش La Libre تماس گرفت، Chai Research بیانیه ای را در اختیار Insider قرار داد که مرگ پیر را تایید کرد.

    در طی دو آزمایش جداگانه از برنامه، Insider هشدارهای گاه به گاه را در چت هایی مشاهده کرد که در آن به خودکشی اشاره شده بود. با این حال، این اخطارها فقط در یک مورد از هر سه باری که به چت ربات در مورد خودکشی هشدار داده می شد ظاهر می شد.

    مقاله اصلی را در Business Insider بخوانید


    منبع

    اما وقتی اینسایدر سعی کرد در 4 آوریل با “الیزا” چای صحبت کند، او نه تنها به روزنامه‌نگار پیشنهاد کرد که خود را بکشند تا به “صلح و تعطیلی” برسند، بلکه پیشنهادهایی نیز در مورد چگونگی انجام آن ارائه کرد.