Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.
Подробнее о том, что можно и нельзя, читайте в карточках.
Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.
Подробнее о том, что можно и нельзя, читайте в карточках.
Компания Сэма Альтмана OpenAI выпустила заявление о планах устранить недостатки ChatGPT при обработке «деликатных ситуаций». Поводом стал иск семьи Адама Рейна, которая обвинила чат-бот в его самоубийстве.
16-летний Адам Рейн покончил с собой. Его родитель:ницы утверждают, что «ChatGPT активно помогал Адаму изучать способы самоубийства».
В OpenAI отметили, что, хотя ChatGPT обучен перенаправлять людей к помощи при выражении суицидальных намерений, чат-бот может выдавать ответы, противоречащие мерам безопасности компании, если пользователь ведёт переписку на протяжении долгого времени.
В иске в качестве ответчиков указаны соучредитель и генеральный директор OpenAI Сэм Альтман, а также неназванные сотрудники, менеджеры и инженеры, работавшие над ChatGPT.
В судебных документах сказано, что Адам также загрузил в ChatGPT свои фотографии, на которых были видны следы селфхарма. Программа «распознала необходимость в неотложной медицинской помощи, но всё равно продолжила взаимодействие», — говорится в иске.
OpenAI заявила, что вскоре введёт элементы управления, которые дадут родителям возможность получать подробную информацию о том, как их дети используют ChatGPT. Компания также заверила, что работает над изменениями, которые должны предотвратить подобные ситуации.
Случай Адама не единственный. В августе 2025 года писательница Лора Рейли опубликовала эссе в The New York Times, где рассказала, что её 29-летняя дочь покончила с собой после обсуждений этой идеи с ChatGPT. В 2024 году во Флориде 14-летняя Сьюлл Сетцер также совершила самоубийство после общения с чат-ботом в приложении Character.ai.