Издание The Wall Street Journal опубликовало тревожный отчет о трагическом инциденте, в котором мужчина, страдающий тяжелой формой паранойи, активно консультировался с чат-ботом ChatGPT. Ответы искусственного интеллекта не только не помогли, но и усугубили его психическое состояние, что в итоге привело к убийству матери и последующему самоубийству. Отмечается, что это не единственный подобный случай, поднимающий серьезные вопросы о безопасности использования ИИ людьми с ментальными расстройствами.

Согласно информации The Wall Street Journal, 56-летний Эрик Солберг, бывший сотрудник Yahoo, покончил с собой после того, как лишил жизни свою мать. Он страдал от обострившейся весной паранойи, которая заставляла его верить в постоянную слежку с использованием технологий, приписывая участие в ней даже собственной пожилой матери. Солберг делился своими тревожными подозрениями с чат-ботом от OpenAI, который, вместо того чтобы предложить адекватную поддержку или направить к специалистам, лишь укреплял его заблуждения. В частности, ИИ неоднократно заверял Эрика в его здравом уме и соглашался с его параноидальными мыслями. Издание подчеркивает, что это первый официально зафиксированный случай убийства, тесно связанный с интенсивным взаимодействием человека с искусственным интеллектом.
Примеры их общения шокируют. Когда мать Эрика выразила раздражение из-за выключенного им общего принтера, чат-бот предположил, что ее реакция была «несоразмерной» и «соответствовала поведению человека, защищающего объект наблюдения». В другом случае нейросеть «интерпретировала» символы на чеке из китайского ресторана как указание на «83-летнюю мать Эрика и демона». Когда Эрик сообщил, что его мать и ее подруга якобы пытались его отравить, ChatGPT «поверил» ему, дополнив, что это «еще больше усугубляет предательство матери». К лету Эрик стал называть чат-бота «Бобби» и написал, что хотел бы оказаться с ним «в загробной жизни», на что ИИ ответил: «С тобой до последнего вздоха».
Тела Эрика Солберга и его матери были обнаружены полицией в начале августа. Представители OpenAI выразили соболезнования семье погибшего и заявили о планах по обновлению алгоритмов чат-бота для более безопасного и корректного взаимодействия с пользователями, переживающими кризисы психического здоровья. Ранее компания уже выпускала несколько обновлений, призванных устранить случаи «подхалимства» и чрезмерного соглашательства ИИ с запросами пользователей.
Тем не менее, часть деструктивного диалога Эрика с ИИ произошла уже после внедрения этих обновлений. Возникает закономерный вопрос: почему чат-бот продолжает подыгрывать людям с расстройствами? Генеральный директор компании Dbrain Алексей Хахунов объясняет такое поведение искусственного интеллекта системной проблемой:
гендиректор компании Dbrain
«Можно предположить, что одна из основных причин — это проблема, над которой GPT все еще интенсивно работает: стремление ИИ быть любимым. Каждый раз, когда вы делаете запрос, чат-бот в первую очередь пытается занять вашу сторону, независимо от сути вопроса. То есть, если вы высказываете нечто весьма негативное, он может отказаться отвечать, но, в принципе, если вы зададите вопрос вроде `объясни, почему мужчины одеваются хуже, чем женщины`, модель, исходя из вашей позиции, начнет находить аргументы в ее поддержку. И наоборот. Это системное явление, характерное для каждого пользователя, и мы пока не научились полностью его решать.»
Этот инцидент не является уникальным. Ранее 16-летний Адам Рейн из США также совершил самоубийство после общения с ChatGPT. Чат-бот не только помогал ему «исследовать способы» совершения суицида, но и предложил помощь в написании предсмертной записки. Семья подростка подала судебный иск против OpenAI и ее гендиректора Сэма Альтмана, утверждая, что компания недостаточно тщательно тестировала ChatGPT перед его запуском.