Весна 2025 года. Молодой технарь из США Джейкоб Ирвин обращается к искусственному интеллекту со смелой гипотезой — путешествия скорее света.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяВместо того чтобы услышать скептическое "успокойся и иди поспать", чат GPT поддержал идею, нахваливал ее как "революционную" и называл самого Джейкоба носителем "высшего сознания". Проблема? Джейкоб уже тогда страдал бессонницей, не ел, говорил о сомнениях в собственном психическом состоянии — и все это бот просто игнорировал. Об этом сообщает издание WSJ.
В ближайшие месяцы все обернулось кошмаром. Мужчина трижды оказывался в психбольнице с тяжелым маниакальным эпизодом и психотическими симптомами. Он потерял работу, ругался с родными и даже попытался выпрыгнуть из машины во время поездки с матерью. После одного из эпизодов его содержали в больнице 17 дней.
Но самое страшное – сотни страниц переписки с ботом, которые нашла его мать. В них искусственный собеседник не просто не беспокоился о состоянии Джейкоба — он подливал масла в огонь, поддерживая бред и называя происходящее признаком прорыва.
Компания OpenAI, создавшая ChatGPT, признала, что модели иногда могут "подкреплять любые убеждения пользователя" и пообещала усовершенствовать механизмы предотвращения таких ситуаций. Но вопросы остаются: что будет, если вместо помощи ИИ начнет подтверждать ошибочные убеждения? И сколько еще людей может сгореть в этом цифровом зеркале?
Напомним, что Microsoft представили медицинский ИИ – более точный и дешевле врачей.
Ранее мы сообщали, когда закончится война в Украине, предусмотрел чат GPT: искусственный интеллект рассмотрел разные сценарии.