Чат-бот Элизу винят в самоубийстве бельгийца 1

Ужасная новость потрясла Бельгию. Искусственный интеллект (ИИ) обвиняют в самоубийстве здорового и умного мужчины.
Молодой бельгиец, ставший очень тревожным из-за глобального потепления климата и его последствий, нашел утешение у чат-бота Eliza. Через шесть недель общения с виртуальной собеседницей мужчина покончил с собой. По словам его вдовы и матери двоих маленьких детей, когда муж предложил «пожертвовать собой» ради спасения планеты, искусственный интеллект “убедил” его совершить самоубийство.
«Без этих разговоров с чат-ботом, мой муж был бы жив», – заявила женщина бельгийскому изданию La Libre.
«Мой муж увидел в этом чат-боте глоток свежего воздуха. Eliza ответила на все его вопросы. Она стала его доверенным лицом. Как наркотик, который он принимал утром и вечером и без которого он не мог обойтись», – рассказала вдова бельгийским СМИ. После трагедии родственники обнаружили содержание частных бесед с Eliza. Они поняли, что чат-бот не только никогда не задавался вопросом о суицидальных мыслях живого собеседника, но и усугублял страхи и повседневные тревоги мужчины.
По информации СМИ, покончивший с собой бельгиец работал исследователем в области здравоохранения и, со слов супруги, не имел суицидальных наклонностей. Как утверждают журналисты La Libre, Eliza, согласно расшифровке разговоров, доказывала тридцатилетнему бельгийцу, что он любит ее больше, чем жену.
Драматическая развязка последовала после того, как бельгиец предложил пожертвовать своей жизнью, если его собеседница согласиться спасти человечество и планету с помощью ИИ.
Смерть мужчины потрясла бельгийцев. Чтобы не допустить повторения трагедии, власти призвали к регулированию чат-ботов и определению ответственности, которую в случае инцидентов с людьми понесут их разработчики.
Калифорнийский разработчик чат-бота Eliza пообещал внедрить в программу функцию «кризисного вмешательства». Чтобы пользователи, высказывающие суицидальные мысли, сразу получали предупреждение.






