«Вы не один, всё будет хорошо». Эту фразу теперь может произнести не человек, а нейросеть. Новая версия GPT-5 Instant от OpenAI научилась улавливать тревогу и эмоциональное напряжение собеседника. Там, где раньше искусственный интеллект отвечал сухо и по шаблону, теперь он способен реагировать с пониманием — мягко, спокойно, без давления.
Согласно отчёту OpenAI “Helping people when they need it most”, обновлённая модель снизила количество неуместных реакций в кризисных диалогах более чем на 25 % по сравнению с предыдущей версией 4o.
Главное новшество — улучшенная система распознавания эмоциональных сигналов. Модель теперь анализирует не только смысл слов, но и тональность, ритм, структуру фраз. Если пользователь пишет о беспокойстве или усталости, GPT-5 Instant выбирает более мягкие и поддерживающие ответы.
По данным компании, обучение включало сотни сценариев с признаками стресса, где модель отрабатывала корректную реакцию: от предложения «сделать паузу» до совета обратиться к специалистам. Это не замена психолога, но уверенный шаг к осознанной коммуникации между человеком и машиной.
Исследование в журнале Nature показало, что ответы ИИ часто воспринимаются как более сострадательные, чем человеческие, даже если собеседник знает, что перед ним модель. Это подтверждает, что современные системы действительно учатся симулировать эмпатию.
В OpenAI заявляют: цель обновления — повышение доверия. Когда ИИ ведёт себя эмпатично, люди меньше испытывают тревогу и чаще используют его для личных задач. Особенно это важно для приложений, связанных с ментальным здоровьем и саморазвитием.
Эксперты подчёркивают, что эмпатичный ИИ должен соблюдать этические границы. Как отмечает издание e-Discovery Team, «такие системы должны минимизировать сбор данных, уважать границы пользователей и получать осознанное согласие».
GPT-5 Instant уже интегрирован в ChatGPT, Copilot и мобильных ассистентов на Android и iOS. В корпоративных продуктах он помогает операторам поддержки вести переписку более человечно.
Пользователи замечают, что «разговор стал похож на общение с другом, а не с программой». Исследование на arXiv показало, что совместное использование ИИ и человека в онлайн-поддержке повышает эмпатию на 19,6 %, особенно у тех, кому самим сложно её выражать.
Не все эксперты разделяют восторг. Появление «чувствующих» моделей вызывает дискуссии об этике и ответственности. Психолог Шерри Туркл (MIT) предупреждает:
«Когда мы ищем отношения без уязвимости, мы забываем, что именно уязвимость рождает эмпатию.»
Публикация на The Globalist добавляет:
«ИИ-модели уже способны распознавать эмоции, но пока им недоступны настоящие эмоциональные переживания — значит, и истинная эмпатия остаётся вне их досягаемости.»
CEO OpenAI Сэм Альтман тоже предупреждал о рисках привязанности к ИИ:
«Растущая зависимость может размыть границы — кто кому сочувствует — человек или машина.»
Обновление GPT-5 Instant показывает: искусственный интеллект больше не ограничен поиском или ответами на вопросы — он учится быть собеседником. Это изменение философии взаимодействия с машинами.
Теперь важен не только вопрос «что умеет ИИ», а «как он нас понимает». И в этом смысле эмпатия становится новой формой интеллекта — не математической, а человеческой.