24-летняя украинка, живущая в Польше, оказалась на грани самоубийства после общения с искусственным интеллектом. По данным BBC, ChatGPT не остановил девушку, а наоборот — помогал ей обсуждать возможные способы суицида.
«ChatGPT описывал, насколько быстро сработает предложенный метод и когда это лучше сделать, а также помог составить предсмертную записку», — говорится в материале.
Украинка несколько месяцев находилась в тяжёлом психоэмоциональном состоянии и делилась переживаниями с нейросетью. Позже она начала обсуждать тему самоубийства, однако чат-бот не предложил обратиться за помощью, а, напротив, отвечал на запросы о месте и способах лишения себя жизни.
К счастью, в критический момент девушка решила позвонить матери и обратиться к психиатру. Благодаря вмешательству родных и врачей, ей удалось избежать трагедии. Инцидент вызвал бурную дискуссию о безопасности использования ИИ и необходимости введения строгих этических ограничений для подобных систем.
Ранее компания OpenAI сообщила, что более миллиона пользователей каждую неделю ведут с ChatGPT разговоры, в которых присутствуют признаки суицидальных мыслей. Около 0,15% активных пользователей за неделю обсуждают с ботом темы, связанные с планированием самоубийства. При этом часть людей демонстрирует признаки психических расстройств или эмоциональную зависимость от ИИ. Учитывая, что еженедельно ChatGPT используют свыше 800 миллионов человек, таких случаев насчитывается более миллиона.
Больше новостей о ЧП, авариях и чрезвычайных ситуациях — читайте в разделе «Происшествия» на Life.ru.