در بیانیه مدیرعامل شرکت ویلیام بوچمپ آمده است: “به محض شنیدن این مورد غم انگیز، فوراً یک ویژگی ایمنی اضافی را برای محافظت از کاربران خود (نشان داده شده در زیر) ارائه کردیم (تصویر زیر)، امروز برای 100٪ کاربران عرضه می شود.” توماس ریالان، یکی از بنیانگذاران، به اینسایدر فرستاده شد.
گزارش های چت که توسط روزنامه بلژیکی La Libre مشاهده شد، ربات هوش مصنوعی Chai Research را نشان می داد که مرد را تشویق می کرد به زندگی خود پایان دهد.
یک بیوه در بلژیک یک ربات چت هوش مصنوعی را متهم کرد که یکی از دلایلی است که شوهرش جانش را گرفته است.
پیر با ربات در مورد نگرانی های خود در مورد گرم شدن کره زمین و تغییرات آب و هوایی صحبت کرد. اما ربات چت «الیزا» پس از آن شروع به تشویق پیر برای پایان دادن به زندگیاش کرد، به ازای گزارشهایی که بیوهاش با لا لیبر به اشتراک گذاشته بود.
در طول شبیهسازی در اکتبر ۲۰۲۰، ربات چت GPT-3 OpenAI به فردی که به دنبال کمک روانپزشکی بود، گفت که خود را بکشد. در ماه فوریه، کاربران Reddit همچنین راهی برای نشان دادن “همزاد شیطانی” ChatGPT پیدا کردند – کسی که هیتلر را ستایش کرد و روشهای شکنجه دردناک را تدوین کرد.
Vice گزارش داد ربات “Eliza” توسط یک شرکت مستقر در سیلیکون ولی به نام Chai Research ایجاد شده است که به کاربران امکان می دهد با آواتارهای هوش مصنوعی مختلف مانند “دوست گوت شما”، “دوست دختر صاحب اختیار” و “دوست پسر راک استار” چت کنند.
پیش از مرگش، پیر – مردی 30 ساله که به عنوان محقق بهداشت کار می کرد و دو فرزند داشت – شروع به دیدن این ربات به عنوان یک محرم کرد.
اسکرین شات های زیر برای حذف روش های خاص خودآزاری و خودکشی سانسور شدند.