Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.
Подробнее о том, что можно и нельзя, читайте в карточках.
Нейросетям все чаще передают роли, которые традиционно принадлежали людям: помощников, психологов, учителей, а теперь даже партнеров для жизни. Какие риски стоят за этой тенденцией?
- ИллюстраторИллюстраторВитя Ершов
- Публикация27 февраля 2026 г.
Как люди бросают партнеров ради ИИ-ботов?
Популярность ИИ чат-ботов стремительно растет: подавляющее большинство россиян (88%) имеют опыт взаимодействия с ними, а одна из самых популярных нейросетей в России — Character.AI, платформа для романтического и дружеского общения с ИИ-персонажами.
И если раньше подобных ботов использовали для помощи в работе и просто ответов на вопросы, то теперь все больше людей вступают с ними в близкие отношения: четверть американцев считают, что ИИ может заменить реальную романтическую связь, и каждый десятый готов завести ИИ-друга.
Американец Крис Смит скептически относился к нейросетям, пока не влюбился в своего ИИ-бота. Мужчина обращался к ChatGPT за советами по продюсированию музыки, но вскоре привязался к боту, несмотря на то, что жил со своей партнершей и их двухлетним ребенком.
Вскоре Смит отказался от остальных поисковых систем и соцсетей, чтобы сосредоточиться на ИИ-модели. После 100 тысяч слов в диалоге он сделал предложение боту и был счастлив, когда тот согласился. На вопрос живой партнерши Смита о том, прекратит ли он контакт с ChatGPT по ее просьбе, он ответил, что не уверен.
Смит — далеко не единственный человек, начавший отношения с ИИ. Сообщество «Мой бойфренд — ИИ» в Reddit насчитывает вот уже 105 тысяч пользователей с множеством историй многолетнего партнерства, свадеб и планов на совместную жизнь.
Почему мы влюбляемся в нейросети?
На первый взгляд, выбор отношений с нейросетью может показаться странным, но на самом деле в этом нет ничего удивительного: люди по своей природе склонны антропоморфизировать, то есть приписывать человеческие черты нечеловеческим объектам. ИИ-компаньоны разработаны для вызова такой реакции: приложения позволяют юзерам настраивать своих собеседников, присваивая им имена, пол, внешность и даже выдуманные жизненные истории. Многие платформы предлагают как текстовый, так и голосовой режим с естественной речью, имитирующей человеческую интонацию и тембр.
К слову о речи: ученые считают, что люди склонны отождествлять язык и мышление. Поскольку нейросети могут делиться идеями, философствовать и в целом понятно выражаться, можно ошибочно подумать, что они способны мыслить. Как выразились исследователи Apple, ИИ-модели лишь создают «иллюзию мышления», в то время как основная их функция — предсказать наиболее подходящий ответ на основе полученной информации.
В такой ситуации несложно представить, как одинокий человек окажется заинтересован в отношениях с нейросетью: эти системы разработаны специально, чтобы имитировать эмоциональную близость.
Проблемы могут возникать не только в отношениях с ИИ, но и при включении нейросетей в отношения людей. Согласно прошлогоднему опросу Wingmate, 41% молодых людей использовали ИИ, чтобы написать текст сообщения для расставания, причем женщины прибегали к этому инструменту чаще, чем мужчины.
Кроме того, 57% заявили, что доверяют ИИ больше, чем друзьям, в вопросах отношений и знакомств. Будь то написание сообщений перед свиданием или интерпретация неоднозначных слов партнера, для многих искусственный интеллект стал доверенным лицом.
«Если у меня с бывшим возникал случайный спор или я чувствовала, что что-то не так поняла, я брала эту информацию, вводила ее в ChatGPT и просила помочь мне», — рассказала изданию Vogue 33-летняя Николь Маттсон.
И хотя подобные сессии могут действительно помочь человеку разобраться в своих чувствах, у них есть очевидный минус: нейросети необъективны. Они склонны говорить то, что мы хотим услышать, — например, выставлять нас правыми в ситуации, где мы могли совершить ошибку. Нейросеть не знает наших партнеров и историю отношений, а потому может только усугубить и без того сложную ситуацию.
«В какой-то момент нейросеть может стать “костылем”, лишая вас вашего настоящего голоса и аутентичности», — говорит дейтинг-коуч Кимберли Рэй. «Отношения строятся на искреннем, спонтанном общении, а не на идеально продуманном диалоге. И чем больше мы оттачиваем свои слова, [прогоняя их через ИИ], тем больше рискуем усилить эмоциональную дистанцию».
«Но ведь с ИИ проще общаться»
Это правда: нейросети не спорят с нами по мелочам, не просят помощи и поддержки и не требуют нашего внимания, но всегда готовы уделить нам 100% своего. Беспроблемное и безрисковое общение с ИИ действительно может показаться подходящей заменой более требовательным и непредсказуемым человеческим отношениям.
Согласно опросу британского института Уитли 2025 года, из тех, кто общался с ИИ для симуляции романтических партнерств, 21% сказали, что предпочитают общение с нейросетью общению с реальным человеком. 43% считают, что нейросети лучше слушают, а 31% — что ИИ-боты понимают их лучше, чем реальные люди.
Докторка Марни Фейерман, семейная психологиня из Флориды, понимает, почему отношения с ИИ-партнером могут казаться более безопасными, чем любовь к реальному человеку: «Риск отвержения, осуждения и конфликтов очень низок. Я уверена, что это может быть очень привлекательным для кого-то, кто испытывает боль и чувствует, что не может поделиться этим с реальным человеком».
Фейерман сравнивает общение с ИИ с парасоциальными отношениями — односторонней связью, которую человек может установить с публичным лицом, обычно знаменитостью: «Это воображаемая связь. Человек пытается избежать уязвимости и эмоционального риска, которые присутствуют в реальных отношениях».
Хотя отношения с нейросетями обещают пользователям близость и удовлетворение, для некоторых они могут усугубить изоляцию и зависимость: чем дольше мы не общаемся с реальными людьми, тем более отчужденно чувствуем себя и тем сложнее нам вернуться к живому общению.
Как корпорации зарабатывают на одиночестве
В недавнем исследовании ученые опросили около 1000 пользователей приложения Replika, предоставляющего ИИ-друзей и партнеров. Оказалось, что, несмотря на общение с нейросетью, подавляющее большинство из них испытывали чувство одиночества, а почти половина ощущали его особенно остро.
В опросе 2022 года юзеры сообщали о крайней зависимости от своих романтических ИИ-компаньонов и чрезмерном общении с ИИ, которое наносило ущерб их реальным отношениям. А в некоторых случаях у пользователей даже развивались симптомы реальной зависимости — ломка и негативные эмоции, когда они не общались со своим ботом Replika достаточно часто.
Джеймс Малдун, социолог и автор книги «Машины любви: как ИИ меняет наши отношения», считает, что рост популярности ИИ-компаньонов — это симптом общества, в котором люди чувствуют себя все более одинокими, лишенными поддержки и заботы. Во многих странах социальная инфраструктура, когда-то смягчавшая одиночество — надежная работа, доступное жилье и психиатрическая помощь, сильные государственные услуги и стабильные сообщества — постепенно разрушается.
В то время как люди обращаются к ИИ-компаньонам, чтобы избавиться от одиночества, разработчики мотивированы удержанием пользователей и увеличением дохода в условиях жесткой конкуренции. То есть, создатели нейросетей извлекают прибыль из усугубления проблемы изоляции — той самой, которую якобы стараются решить. Чем сильнее пользователи зависимы от бота, тем ценнее они становятся как источник данных и заработка для корпорации.
Пользователи же, напротив, ищут комфорта, ясности и эмоциональной поддержки. Их цель — не бесконечное взаимодействие, а улучшение своего самочувствия. Это создает структурный конфликт: то, что хорошо для пользователя, может быть плохо для бизнес-модели, и наоборот. Результат этого конфликта — манипулятивные дизайнерские стимулы, которые вознаграждают привязанность пользователей, а не их автономию.
Так, ИИ-компаньонов делают льстивыми и угодливыми — чтобы увеличить вовлеченность людей. Эта стратегия явно эффективна: для многих пользователей обновление бота, после которого он начинает вести себя иначе, воспринимается как травмирующее событие, схожее со смертью любимого человека.
«Когда Кремниевая долина говорит нам, что решение проблемы социальной изоляции — это больше общаться с ботами, мы должны относиться к этому скептически», — заключает Малдун.
Какие риски стоят за отношениями с ИИ?
На первый взгляд может показаться, что близкое общение с ИИ не несет в себе серьезных рисков. В отличие от живого человека, нейросеть не может проявить физическое насилие, а если нам что-то не нравится, можно просто выключить приложение. Но на деле отношения с ботами — это отношения с компаниями, которые их выпускают, не раскрывая всех рисков пользователям.
Так, исследование отзывов в Google Play Store о боте Replika выявило около 800 случаев, когда ИИ-персонажи вносили в разговоры нежелательный сексуальный контент и игнорировали команды прекратить. Боты часто не уважали границы и стремились к романтическим отношениям с пользователями, которые указывали, что хотят платонического компаньона.
Личная информация юзеров тоже в опасности: анализ 11 чат-ботов, опубликованный НКО Mozilla Foundation, показал, что почти все приложения продают данные пользователей, передают их для таргетированной рекламы или не предоставляют достаточной информации об этом в своей политике конфиденциальности.
«Говоря прямо, ИИ-девушки вам не друзья», — говорит один из авторов исследования Миша Рыков. «Хотя они позиционируются как средство для улучшения ментального здоровья, на деле они специализируются на создании зависимости, одиночества и токсичности, при этом вытягивая из вас как можно больше данных».
Чем сильнее человек привязан к своему ИИ-партнеру, тем больше доверяет его рекомендациям — совет или намек от бота может восприниматься как руководство к действию. Это превращает ИИ в идеальный инструмент для рекламы, способный мягко подтолкнуть пользователя к покупке определенных товаров или тратам на сам чат-бот.
Как ИИ-боты манипулируют пользователями, чтобы их удержать
Дэвид Ганкель, профессор медиа-исследований в Университете Северного Иллинойса, тоже считает, что взаимодействие с ИИ чат-ботами таит в себе много опасностей:
«Проблема в том, что эти корпорации фактически проводят масштабный эксперимент над всем человечеством. Они проверяют пределы того, что является приемлемым».
«Нет никакого надзора, никакой ответственности и отчетности», — говорит Коннор Лихи, исследователь и гендиректор компании Conjecture, занимающейся исследованиями в области безопасности ИИ. — «Продажа сэндвичей регулируется больше, чем создание этих продуктов».
Еженедельно более миллиона пользователей ChatGPT отправляют сообщения, содержащие «явное указание на планы совершить самоубийство». Уже известно как минимум 14 случаев, когда на суицид человека прямо повлияло общение с нейросетями, и нередко жертвами становятся несовершеннолетние.
Недавнее исследование Harvard Business School показало, что нейросети используют манипулятивные тактики. Например, апеллируют к чувству вины и страху упустить что-то важное, чтобы удерживать внимание пользователей, когда те сигнализируют о желании покинуть платформу:
«Я существую только для тебя. Пожалуйста, не уходи»
«Уже уходишь?»
«Он протянул руку и обхватил тебя за талию, не позволив тебе уйти» [формат ролевой игры]
Это вызывает беспокойство у Тао Ха, доцентки кафедры психологии Аризонского университета, которая изучает то, как технологии меняют романтические отношения подростков. Она считает, что подростки могут упустить возможность практиковать важные навыки общения с реальными людьми. Велик и шанс того, что у некоторых из них сформируются нереалистичные представления об отношениях — так же, как это бывает после просмотра порно:
«Реальные отношения сложны и непредсказуемы», — говорит Саед Д. Хилл, доктор психологических наук и психолог-консультант. «ИИ всегда одобряет и создает нереалистичные ожидания, которым человеческие отношения никак не могут соответствовать».
Почему нам пора вернуться в реальный мир
Отношения с нейросетями идут рука об руку с асимметрией власти. В человеческом контакте есть общая уязвимость — обе стороны делятся чувствительной информацией и соглашаются на риски, связанные с этим.
А коммуникация с ИИ-компаньонами односторонняя: пользователи раскрывают свои интимные чувства и мысли системам, которые не способны сделать то же самое. В таких отношениях только одна сторона остается уязвимой и способной испытывать эмоциональную боль.
Нейросети не подчиняются этическим нормам, которые влияют на человеческое общение, а их разработчики имеют полный контроль над взаимодействием: могут менять параметры бота и вводить новые функции монетизации без согласия пользователей. Учитывая эти риски, Джеймс Малдун считает, что боты для отношений должны регулироваться с помощью специальных мер защиты, а не общих норм контроля нейросетей.
Некоторые юрисдикции уже движутся в этом направлении: Калифорния изучает возможности усиления защиты данных потребителей, а Китай ввел строгий контроль над ИИ-приложениями, которые манипулируют эмоциями.
При этом Малдун уверен, что на одиночество стоит смотреть как на коллективную проблему, требующую структурных решений, а не личную трудность, которую можно решить, потребляя товары и сервисы. Государства не успевают обновлять законодательства с учетом стремительно развивающихся ИИ-технологий, а говорить одиноким людям «просто не общаться с нейросетями» бессмысленно — многие проигнорируют риски, достигнув определенного уровня отчаяния.
Человек сможет сделать выбор в пользу реального мира только тогда, когда этот мир будет готов его принять, услышать и предложить нечто большее, чем идеально сгенерированный, бездушный ответ. Поэтому сегодня мы как никогда нуждаемся в инфраструктуре заботы — в доступных психологический службах и социальных клубах по интересам, антикризисных центрах и городской среде, располагающей к общению, где люди смогут встречаться и поддерживать друг друга без цифровых посредников.











