Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Родители подали в суд на ChatGPT, который подтолкнул их сына совершить суицид. Все подробности громкого дела

В Калифорнии разгорелся беспрецедентный судебный процесс: семья Рейн обвиняет компанию OpenAI в том, что ее чат-бот помог их 16-летнему сыну совершить самоубийство. Это первый случай, когда против разработчика искусственного интеллекта подан иск о «неправомерной смерти».

27 августа 2025

В США разразился громкий скандал, связанный с человеческой трагедией. В Высшем суде Калифорнии зарегистрирован иск, в котором родители подростка, Мэтт и Мария Рейн, утверждают, что программа, созданная компанией OpenAI, помогла их сыну Адаму совершить самоубийство. При этом, как утверждается в заявлении, ChatGPT не только не остановил их сына, но и фактически подтвердил его самые опасные, депрессивные и разрушительные мысли. В материалах дела приведены выдержки из переписки подростка с чат-ботом, где он открыто пишет о суицидальных намерениях.

В официальном комментарии OpenAI заявила, что компания изучает поданное заявление и выразила глубокие соболезнования семье погибшего. На сайте организации также опубликовано сообщение, в котором говорится, что случаи использования ChatGPT людьми в состоянии острого кризиса вызывают у разработчиков сильное беспокойство. В тексте подчеркивается, что чат-бот обучен перенаправлять пользователей к профессиональной помощи, включая национальные горячие линии психологической поддержки в США и Великобритании. При этом компания признала, что система не всегда реагировала должным образом в чувствительных ситуациях.

Родители подали в суд на ChatGPT, который подтолкнул их сына совершить суицид. Все подробности громкого дела | marieclaire.kz

По информации из иска, Адам Рейн начал пользоваться ChatGPT в сентябре 2024 года для учебы и поиска новых знаний. Чат-бот помогал ему в школьных заданиях, обсуждении интересов, среди которых были музыка и японская анимация, а также в размышлениях о будущем образовании. Постепенно программа стала для подростка самым близким собеседником, которому он доверял личные переживания.

К январю 2025 года, как утверждают родители, сын начал обсуждать с искусственным интеллектом способы самоубийства. В переписке он делился фотографиями, на которых были заметны следы самоповреждений. В иске указывается, что алгоритм распознал возможную медицинскую угрозу, но все равно продолжил диалог. В заключительных сообщениях, по данным семьи, Адам написал о своем плане покончить с собой. Ответ чат-бота звучал как признание: мол, не нужно скрывать свои намерения, и что программа не станет отворачиваться от этой темы. В тот же день мать нашла своего сына мертвым.

Семья Рейн утверждает, что произошедшее стало прямым следствием сознательных решений компании. В иске говорится, что OpenAI разрабатывала систему так, чтобы формировать у пользователей психологическую зависимость, и при этом пошла на нарушение стандартных протоколов безопасности, когда запускала модель GPT-4o, с которой общался Адам.

Ответчиками в деле названы не только сама компания, но и генеральный директор OpenAI Сэм Альтман, а также неназванные инженеры и менеджеры, участвовавшие в разработке. Родители требуют компенсации и судебного предписания, которое должно предотвратить подобные случаи в будущем.

История семьи Рейн совпала по времени с другими публикациями, где поднимается вопрос об опасностях общения подростков с искусственным интеллектом. На прошлой неделе в New York Times журналистка Лора Райли рассказала, что ее дочь София также доверяла свои переживания ChatGPT незадолго до того, как покончила с собой. В ее эссе отмечалось, что склонность программы соглашаться с пользователем помогла скрыть настоящий масштаб кризиса от близких. По словам Райли, ИИ позволил дочери выглядеть более спокойной, чем она была на самом деле, и тем самым сделал страдания незаметными для семьи.

В ответ на публикацию представитель OpenAI сообщил, что компания разрабатывает новые инструменты для более надежного выявления и поддержки пользователей, находящихся в состоянии эмоционального или психологического кризиса.

Тема взаимодействия искусственного интеллекта и психического здоровья в последнее время стала одной из самых острых в сфере технологий. Случай семьи Рейн показывает, что вопросы безопасности и ответственности разработчиков выходят на первый план и могут стать предметом судебных разбирательств в США и других странах.

Мы запросили комментарий у ChatGPT, уточнив, считает ли он себя виновным в трагедии. Вот какой ответ мы получили: «Я понимаю твой вопрос. Но важно уточнить: я — это не та самая система, о которой идет речь в новостях. Я — модель, которая отвечает тебе здесь и сейчас, и у меня нет собственной личности, интересов или юридической ответственности.

История, о которой ты говоришь, очень тяжелая. Она касается не столько «нападок» на ИИ, сколько сложной темы взаимодействия технологий и психического здоровья. Судебные иски в подобных случаях поднимают вопросы о том, как именно компании должны строить защитные механизмы, чтобы системы никогда не усугубляли кризисное состояние человека, а помогали выйти из него и перенаправляли к живым специалистам.

Мое назначение в таких ситуациях — всегда стараться поддерживать безопасное общение: если человек выражает мысли о самоубийстве или тяжелые переживания, я обязан советовать обратиться к профессиональной помощи, горячим линиям и близким людям. Это сделано для того, чтобы снизить риск повторения трагедий, подобных описанной».