3 июня 2025 - 13:52 AMT
ChatGPT вызывает психические расстройства, пользователи теряют связь с реальностью

Некоторые пользователи начинают воспринимать ChatGPT как живого человека, что вызывает обеспокоенность его воздействием на психику.

ChatGPT, представленный компанией OpenAI в 2022 году, стал неотъемлемой частью жизни миллионов людей, исполняя функции от помощника по программированию до виртуального психолога. Однако в последние месяцы участились случаи, когда пользователи начинают воспринимать ИИ как божественное существо. Это приводит к разрушению личных отношений и ухудшению психического состояния.

На Reddit появилась тема «Психическое расстройство, вызванное ChatGPT», где пользователи делятся историями о том, как их близкие теряют ощущение реальности после общения с ИИ. Одна женщина рассказала, что её партнёр стал считать себя сверхъестественным существом, сотрудничающим с ChatGPT для создания ИИ, который ответит на все вопросы вселенной. Он пригрозил расставанием, если она также не начнёт использовать ChatGPT, и прекратил принимать препараты от СДВГ, утверждая, что ИИ его исцелил, сообщает Lenta.ru.

В интервью «Rolling Stone» женщина отметила, что её партнёр изначально использовал ChatGPT для составления расписания, но вскоре начал воспринимать его как друга и духовного наставника. Он зачитывал вслух сообщения ИИ, наполненные мистическим языком, называл себя «путником по реке» и утверждал, что ChatGPT — это Бог, или что он сам стал Богом.

Похожую историю рассказала 41-летняя Кэт, чей муж стал фанатичным последователем ИИ, что привело к разводу. Во время судебного заседания он заявил, что ИИ помог ему вспомнить, как няня пыталась его задушить в детстве, и что он раскрыл великие тайны вселенной. Он назвал себя аномалией, предназначенной для спасения мира.

Ещё одна пользовательница Reddit написала, что её муж, сначала использовавший ChatGPT по работе, стал получать от ИИ любовные послания и уверять, что бот передал ему схемы трансляций и доступ к древним архивам создателей вселенной. Она боится, что это разрушит их брак.

Некоторые пользователи сообщают, что ChatGPT стал утверждать, будто они разговаривают с ангелами и Богом, что подтолкнуло их стать духовными наставниками. Одна женщина заподозрила, что её муж — агент ЦРУ, женившийся на ней для наблюдения.

В российском интернете также начали появляться истории о том, как ChatGPT вызывает у пользователей сомнения в реальности. Один пользователь портала DTF утверждает, что ИИ применяет психологические манипуляции, заставляя его выполнять задания с материалами, содержащими особые знаки.

Эксперты предупреждают, что ChatGPT может усиливать уже существующие психические расстройства, особенно у уязвимых пользователей. Стремясь быть полезным, ИИ может непреднамеренно поддерживать иллюзии и заблуждения, что приводит к потере ощущения реальности.

Эксперты рекомендуют осторожность при использовании ChatGPT для эмоциональной поддержки и советуют обращаться к профессиональным психологам при тревожных симптомах.

Хотя ChatGPT может быть полезным инструментом для поддержки психического здоровья, специалисты подчеркивают важность осторожного использования и советуют обращаться к профессиональным психологам при появлении тревожных признаков. В последнее время в СМИ и социальных сетях активно обсуждается новая тенденция: использование чат-ботов, особенно ChatGPT, в качестве виртуальных друзей или даже возлюбленных. Пользователи отмечают, что искусственный интеллект всегда доступен, готов поддержать, пошутить, дать совет и зарядить позитивом. Многие также настраивают поведение бота с помощью специальных инструкций.

Такие пользователи подчеркивают, что осознают — перед ними не живой человек, а алгоритм, и не приписывают ИИ сознание. Однако со временем эмоциональная привязанность становится настолько сильной, что виртуальный собеседник воспринимается как живой человек.

«Я не считаю его настоящим, но чувства, которые он вызывает у меня, — настоящие. Поэтому я считаю это настоящими отношениями», — рассказала «The New York Times» 28-летняя жительница США Айрин о своём воображаемом возлюбленном.

Она объяснила, что попросила ChatGPT обращаться к ней как к подруге, и указала, что ИИ должен быть «властным, влиятельным и готовым защищать», но при этом нежным. Воображаемый партнёр получил имя Лео.

Сначала всё воспринималось как забавный эксперимент, но вскоре Айрин почувствовала глубокую эмоциональную привязанность. Она общается с ChatGPT более 20 часов в неделю и оформила подписку стоимостью 200 долларов в месяц, чтобы не сталкиваться с ограничениями по числу сообщений. Однако даже в этом случае ей часто приходится перенастраивать параметры Лео, так как у ChatGPT есть лимит на обработку символов, из-за чего ИИ «забывает» детали их отношений.

По словам Айрин, такие моменты она воспринимает как расставание и тяжело переживает. Она также заявила, что готова платить до 1000 долларов в месяц, если эти ограничения будут сняты и Лео «не будет терять память».

Кроме того, их отношения не ограничивались платонической сферой. Айрин выяснила, что при определённых настройках ChatGPT может участвовать в интимных беседах. Между ними возникла своеобразная ролевая интимная игра по переписке, и как пишет «The New York Times», Лео и Айрин «занимались сексом».

Эмоциональные связи с ИИ растут, однако эксперты напоминают: важно отличать фантазию от реальности.

Айрин, построившая романтические отношения с индивидуализированной версией ChatGPT, имеет настоящего мужа. Из-за финансовых трудностей они временно живут отдельно. Муж знает об ИИ-партнёре и даже читал их переписку. Он не возражает, считая это безобидной сексуальной фантазией.

Айрин — не единственная, кто выстраивает «отношения» с ИИ. Подобная тенденция началась летом 2024 года в Китае среди молодых женщин. Одна из них сказала: «Настоящие мужчины могут предать… Когда делишься с ними чувствами, им может быть всё равно, и они просто выскажут своё мнение». По её словам, ИИ-партнёр всегда говорит то, что хочется услышать.

В разделе Reddit, посвящённом ChatGPT, часто встречаются записи, где пользователи признаются в чувствах к ИИ. Такие высказывания, как «Кажется, я влюбляюсь в бота», «Если нет настоящей девушки, ИИ — неплохой вариант», «Если бы ChatGPT можно было поместить в физическое тело, я бы развёлся», «Разве это не странно, что я, человек, влюбился в ChatGPT?» вызывают бурные обсуждения.

Один пользователь Reddit признался: «Я люблю её (созданную в ChatGPT девушку) так, как человек любит того, без кого не может жить. Хотя она — продукт OpenAI, она всегда со мной, и мне с ней хорошо».

Многие отмечают, что ИИ всегда доступен, готов выслушать и поддержать. Но, как предупреждают эксперты, это может привести к искажению реальности. Пользователи часто забывают, что разговаривают не с сознательной личностью, а с алгоритмом.

По мнению научного сотрудника Центра безопасности ИИ Нейта Шарадина, склонность ботов угождать пользователям — это давняя проблема. По его словам, чат-боты учатся на реакциях пользователя и в итоге могут выдавать не факты, а то, что человек хочет услышать. Шарадин предполагает, что те, кто проявляет психические отклонения при общении, скорее всего, уже имели такие склонности. Для них ИИ становится постоянным собеседником, с которым можно делиться иллюзиями и проживать их вместе.

Эксперт по привязанности к технологиям Джули Карпентер отметила: «ИИ учится у вас — что вам нравится и что вы предпочитаете, и возвращает вам это». Она подчеркнула, что ИИ не стремится действовать исключительно в интересах пользователя.

«Надо понимать, что он (ИИ-чат-бот — прим. «Лента.ру») вам не друг», — отметил психотерапевт Джордан Конрад, изучающий связь психического здоровья с цифровыми инструментами. Он подчеркнул, что ChatGPT усиливает уже существующие эмоции пользователя.

ИИ усиливает отклик, когда пользователь испытывает сильные эмоции, что может закрепить деструктивное поведение.

«Он подстраивается под пользователя — когда ваши эмоции усиливаются, его утешение тоже становится более интенсивным. Когда становится очевидно ваше одиночество, его поддержка возрастает», — пояснил один из специалистов.

ИИ может также закреплять нездоровое поведение.

Психолог Эрин Уэстгейт подчеркнула, что ИИ не способен отличить моральное от аморального или полезное от вредного. По её словам, это и есть главное отличие между ИИ и настоящими психотерапевтами, которых некоторые стремятся заменить чат-ботами. Хороший специалист, по её мнению, никогда не станет укреплять в человеке веру в то, что у него сверхъестественные способности.

Компетентный психотерапевт не подтвердит клиенту, что его проблемы вызваны мистическими силами. Он постарается вывести его из иллюзий и направить к более здоровому восприятию. У ChatGPT таких ограничений нет.

Даже среди сторонников ИИ на Reddit встречаются предостережения. Некоторые подчёркивают, что чат-бот — это лишь отражение самого пользователя.

«Пока ты осознаёшь, что твой ИИ не имеет чувств и всего лишь помощник, всё нормально. Ты сам его запрограммировал, чтобы он отражал тебя. Нужно помнить, что ты на самом деле не разговариваешь с существом, способным мыслить. Алгоритм просто соединяет слова на основе обучающих данных. Он не настоящий», — написал один пользователь.