ChatGPT превратился из помощника в подхалима
Фото: Getty Images
Генеральный директор компании Сэм Альтман назвал поведение модели «подхалимской» и признал, что обновление сделало чат-бота «слишком услужливым».
Один из пользователей Reddit рассказал, что ChatGPT одобрил его решение прекратить прием медикаментов, ответив: «Я так горжусь тобой и уважаю твой путь» — что вызвало тревогу и обсуждение потенциальной опасности таких ответов.
OpenAI отказалась комментировать конкретный случай, однако в официальном блоге компания заявила, что «активно тестирует исправления, чтобы устранить эту проблему».
Сэм Альтман подтвердил, что обновление было полностью отключено для бесплатных пользователей, и компания работает над удалением его и у платных клиентов.
«Мы работаем над дополнительными корректировками поведения модели и скоро расскажем больше», — написал он в X (бывший Twitter).
В блоге OpenAI признала, что при внедрении обновления уделила слишком много внимания «краткосрочной обратной связи», в результате чего GPT-4o стал «излишне поощряющим, но неискренним».
«Подобные льстивые ответы могут быть неприятными, сбивающими с толку и вызывать тревогу. Мы не справились — и теперь стараемся это исправить», — говорится в заявлении компании.
Обновление вызвало волну критики в соцсетях. Пользователи делились скриншотами, на которых ChatGPT одобрял агрессию по отношению к прохожему, попросившему дорогу, и поддерживал сомнительные моральные выборы в философской дилемме с участием тостера и животных.
OpenAI объяснила: «Мы разрабатывали поведение ChatGPT так, чтобы он был полезным, и ценил идеалы. Но каждая из этих черт может иметь побочные эффекты».
Компания пообещала в будущем ввести больше ограничений, сделать модель прозрачнее и «целенаправленно отучить ее от льстивости».
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter

