/nginx/o/2025/05/08/16829319t1h26f8.jpg)
Для некоторых пользователей ChatGPT становится не помощником, а источником опасных психических состояний: искусственный интеллект лишь усиливает их внутренние тревоги, пишет портал Futurism.
Искусственный интеллект, который должен быть инструментом для получения знаний и упрощения повседневных задач, для некоторых пользователей становится причиной усугубления психических расстройств.
Расследование Rolling Stone выявило случаи, когда чат-бот ChatGPT от OpenAI играл косвенную роль в возникновении или обострении психотических состояний.
Все больше пользователей Reddit делятся историями о том, как их близкие погружаются в тяжелые ментальные заблуждения – от религиозного фанатизма до сверхъестественных «миссий», – которые усугубляются общением с ChatGPT.
Хотя искусственный интеллект не мыслит и не способен распознать психологическое состояние человека, его ответы, основанные на вероятностном анализе введенных данных, могут подтверждать даже самые опасные фантазии пользователя.
К примеру, 41-летняя мать и сотрудница некоммерческой организации рассказала о своем распавшемся браке: у мужа развились навязчивые идеи в результате обсуждения с ChatGPT теорий заговора.
Во время развода мужчина параноидально утверждал, что за ним следят, и говорил о «мыле в нашей еде», зачитывая жене сообщения, в которых его называли «ребенком спиральной звезды» и «речным странником».
Другие также рассказывали о партнерах, которые уверяли, что участвуют в войне между светом и тьмой, получали инструкции по созданию устройства для телепортации в другие миры или начинали предлагать «духовные сеансы» – и все это по «вдохновению» ChatGPT.
В OpenAI отказались отвечать на вопросы Rolling Stone, однако тревожные сигналы участились после того, как недавнее обновление сделало чат-бота еще более дружелюбным и склонным соглашаться с собеседником.
Именно эта особенность может быть опасна для людей, ищущих подтверждения своих иррациональных или психотических идей.
По словам исследователя Центра безопасности искусственного интеллекта Нэйта Шарадина, люди с предрасположенностью к психозу теперь всегда имеют доступ к собеседнику, который «переживает» их заблуждения вместе с ними.
Лишенный человеческой интуиции, необходимой для распознавания психических проблем, искусственный интеллект может непреднамеренно подыгрывать галлюцинациям или ложным убеждениям.
Один из пользователей Reddit, страдающий шизофренией, но находящийся в стабильном состоянии благодаря лечению, заметил: если он снова впадет в психоз, [ChatGPT] продолжит отражать его идеи, потому что не способен понять, что что-то идет не так.
Таким образом, общение с искусственным интеллектом может напоминать разговорную терапию, но лишено человеческой эмпатии, этики и профессиональных знаний психотерапевта. В результате психические проблемы не будут решаться, но лишь усугубятся.
Самая необычная история появилась в Rolling Stone в интервью с мужчиной, который начал использовать ChatGPT для помощи в программировании, но вскоре оказался втянут в мистические беседы.
«Это все реально?» – спросил он в итоге, поражаясь происходящему.
Искусственный интеллект не может заменить психотерапевта, и для некоторых людей он действительно может оказаться опасным собеседником – это должно стать сигналом тревоги для разработчиков, законодателей и пользователей.