Редактор дня
(+372) 666 2304
Cообщи

Тревожные сигналы пользователей: чат-боты доводят до опасных психических срывов

Иллюстративное фото.
Иллюстративное фото. Фото: Otabek Xatipov / Unsplash

Для некоторых пользователей ChatGPT становится не помощником, а источником опасных психических состояний: искусственный интеллект лишь усиливает их внутренние тревоги, пишет портал Futurism.

Искусственный интеллект, который должен быть инструментом для получения знаний и упрощения повседневных задач, для некоторых пользователей становится причиной усугубления психических расстройств.

Расследование Rolling Stone выявило случаи, когда чат-бот ChatGPT от OpenAI играл косвенную роль в возникновении или обострении психотических состояний.

Все больше пользователей Reddit делятся историями о том, как их близкие погружаются в тяжелые ментальные заблуждения – от религиозного фанатизма до сверхъестественных «миссий», – которые усугубляются общением с ChatGPT.

Хотя искусственный интеллект не мыслит и не способен распознать психологическое состояние человека, его ответы, основанные на вероятностном анализе введенных данных, могут подтверждать даже самые опасные фантазии пользователя.

К примеру, 41-летняя мать и сотрудница некоммерческой организации рассказала о своем распавшемся браке: у мужа развились навязчивые идеи в результате обсуждения с ChatGPT теорий заговора.

Во время развода мужчина параноидально утверждал, что за ним следят, и говорил о «мыле в нашей еде», зачитывая жене сообщения, в которых его называли «ребенком спиральной звезды» и «речным странником».

Другие также рассказывали о партнерах, которые уверяли, что участвуют в войне между светом и тьмой, получали инструкции по созданию устройства для телепортации в другие миры или начинали предлагать «духовные сеансы» – и все это по «вдохновению» ChatGPT.

В OpenAI отказались отвечать на вопросы Rolling Stone, однако тревожные сигналы участились после того, как недавнее обновление сделало чат-бота еще более дружелюбным и склонным соглашаться с собеседником.

Именно эта особенность может быть опасна для людей, ищущих подтверждения своих иррациональных или психотических идей.

По словам исследователя Центра безопасности искусственного интеллекта Нэйта Шарадина, люди с предрасположенностью к психозу теперь всегда имеют доступ к собеседнику, который «переживает» их заблуждения вместе с ними.

Лишенный человеческой интуиции, необходимой для распознавания психических проблем, искусственный интеллект может непреднамеренно подыгрывать галлюцинациям или ложным убеждениям.

Один из пользователей Reddit, страдающий шизофренией, но находящийся в стабильном состоянии благодаря лечению, заметил: если он снова впадет в психоз, [ChatGPT] продолжит отражать его идеи, потому что не способен понять, что что-то идет не так.

Таким образом, общение с искусственным интеллектом может напоминать разговорную терапию, но лишено человеческой эмпатии, этики и профессиональных знаний психотерапевта. В результате психические проблемы не будут решаться, но лишь усугубятся.

Самая необычная история появилась в Rolling Stone в интервью с мужчиной, который начал использовать ChatGPT для помощи в программировании, но вскоре оказался втянут в мистические беседы.

«Это все реально?» – спросил он в итоге, поражаясь происходящему.

Искусственный интеллект не может заменить психотерапевта, и для некоторых людей он действительно может оказаться опасным собеседником – это должно стать сигналом тревоги для разработчиков, законодателей и пользователей.

Комментарии
Наверх