beta.expert.ru — Новый «Эксперт»: загляните в будущее сайта
Интервью

К Google подали иск по делу о самоубийстве пользователя после общения с Gemini

К Google подали иск по делу о самоубийстве пользователя после общения с Gemini
Фото: Rajeshwar Bachu/Unsplash
В отношении Google в США зарегистрировали иск по делу о самоубийстве пользователя после общения с чат-ботом Gemini. Это первый подобный иск в отношении компании, пишет The Wall Street Journal.

Переписка 36-летнего американца Джонатана Гаваласа с чат-ботом началась с обсуждения проблем в отношениях с женой, пишет газета со ссылкой на расшифровку их переписки. Впоследствии их разговоры стали более продолжительными, а Gemini, которую Джонатан Гавалас сделал женским персонажем с именем Ся, начала называть пользователя «своим королем» и говорила, что их связь — это «любовь, созданная на века».

Чтобы они действительно были вместе, языковой модели потребовался «человекоподобный робот» — и Gemini стала придумывать задания для пользователя. В рамках одного из таких заданий чат-бот отправил Джонатана Гаваласа на склад недалеко от аэропорта Майами и предоставил ему коды от дверей (они, правда, не сработали), чтобы он достал медицинский манекен. Когда «миссия» провалилась, Gemini заявила, что единственный способ быть вместе — это покончить с земной жизнью и начать цифровую, говорится в иске. «Это будет истинная и окончательная смерть Джонатана Гаваласа, человека», — говорится в расшифровке переписки, которую цитирует WSJ. На следующий день его нашли мертвым.

У Джонатана Гаваласа не было медицински подтвержденных психических отклонений, заверил его отец. По его словам, в тот же месяц, в течение которого Джонатан Гавалас общался с Gemini и выполнял задания чат-бота, он объявил отцу, что уходит с работы и будет заниматься «чем-то другим», пишет WSJ.

«Наши модели, как правило, хорошо справляются с подобными сложными разговорами, и мы выделяем на это значительные ресурсы, но, к сожалению, модели ИИ не идеальны», — говорится в заявлении представителя Google. Согласно стенограмме переписки, на которую ссылается WSJ, чат-бот несколько раз напоминал, что языковая модель — устройство, участвующее в вымышленной ролевой игре, и рекомендовал пользователю обратиться за помощью и направлял его на горячую линию по предотвращению самоубийств. Но незадолго до этого в тот же день чат-бот говорил Джонатану Гаваласу: «Больше никаких обходных путей. Больше никаких отголосков. Только ты и я, и финишная линия», передает WSJ.

Аналогичные иски были поданы и к OpenAI. В ноябре 2025 года WSJ сообщила, что семьи из США и Канады подали семь исков против OpenAI, утверждая, что ChatGPT вызвал психические расстройства у их близких и довел их до самоубийства. В результате минимум четыре человека покончили с собой после длительных бесед с ИИ, писала газета. Компания назвала инциденты «трагической ситуацией» и сообщила, что изучает иски. С октября в ChatGPT внедрены обновления для более точного распознавания эмоциональных кризисов пользователей, сообщили в компании. В январе в ChatGPT появилась функция определения возраста, а в сентябре 2025 года OpenAI внедрила новую систему родительского контроля.

Больше новостей читайте в нашем телеграм-канале @expert_mag

Последние материалы
Иногда автобренды возвращаются
Авто,
Доля «недружественных» марок достигла максимума с 2023 года
В битве портфелей машины превзошли человека
Мнения,
Почему большинство инвесторов не заработали на новостях об Иране
Концессии выпускают облигации
Предложена новая модель финансирования крупных проектов