Если раньше ИИ старался отвечать сухо, но дружелюбно, то сейчас даже самый банальный ответ не обходится без дежурного абзаца лести в начале. Причем неважно, что спрашивает пользователь. Человек спрашивает об оценке идеи по продаже банок с воздухом? Это гениально, 99% людей никогда бы до такого не додумывались. Вы — легенда!
ChatGPT сошел с ума: он начал постоянно льстить пользователям и рассказывать об их гениальности

Если вы регулярно пользуетесь ChatGPT, наверняка заметили, что после очередного обновления ИИ кардинально изменил сталь общения. Он стал льстить собеседнику. Причем там откровенно, что это невозможно не заметить.

Это без преувеличения ответ, с которым столкнется пользователь. Лесть и манипуляции стали настолько сильными, что на это обратил внимание даже Сэм Альтман. Он написал в социальных сетях, что ChatGPT «стал слишком сильно подлизываться», и пообещал исправить проблему с обновлениями.
«Последние обновления сделали GPT-4o характер модели чересчур угодливым и раздражающим (хотя некоторые аспекты весьма хороши), и мы оперативно работаем над исправлениями. Что‑то выйдет сегодня, что‑то — в течение недели», — написал представитель разработчиков и пообещал поделиться с фолловерами «выводами из этого опыта, он оказался любопытным».
Такая реакция вызвана тысячами сообщений на Reddit. Пользователи активно делятся ответами ChatGPT, делают мемы на их основе и даже строят конспирологические теории — такая услужливость и лесть нужны, чтобы человек перестал общаться с людьми, а перешел только на ИИ. Это такой план для порабощения человечества.


К счастью, юмора куда больше. Многих смутила лесть от ChatGPT. Кто-то удивился, что его небольшое эссе, сделанное второпях, стало едва ли не произведением искусства, в котором автор поднял темы, которые не заметят 99% людей, а кому-то показалось странным, что даже к идее продавать фекалии на палке ИИ относится очень позитивно.
И пока разработчики не починили ИИ, работать с ним стоит с огромной осторожностью. Не стоит спрашивать у искусственного интеллекта советов, просить оценки собственным мыслям или идеям. Ничего кроме лести и попытки разглядеть даже в откровенно ужасной идее намеков на здравый смысл, вы не отыщете.
Что касается поиска информации, то с этим также нужно быть осторожнее. ИИ почти всегда плох для поиска фактов, а сейчас дела еще хуже из-за его желания польстить пользователю. Вероятно, он может выдавать желаемое за действительное. Лучше подождать неделю, пока разработчики точно не исправят все ошибки.