ChatGPT сошел с ума на несколько часов и начал писать несвязанные ответы
Но выглядело это забавноТак вот, похоже, у него случился временный приступ «сумасшествия». Во вторник пользователи стали массово жаловаться на странные ответы: несвязный бред, бессмысленные стихи, а кто-то даже сравнил это с «потерей рассудка» у компьютера.
OpenAI, создатели ChatGPT, признали проблему и работают над решением, но ситуация примечательна тем, как люди воспринимают сбои в больших языковых моделях.
Эти модели пытаются имитировать человека, и когда что-то идёт не так, пользователям приходится прибегать к таким метафорам как «потерял рассудок». Ведь OpenAI не раскрывает, как именно работает ChatGPT, оставляя его внутреннее устройство «чёрным ящиком».
Некоторым людям даже пришлось усомниться в своей адекватности! Спрашивали про кормление собаки хлопьями, а в ответ получили бессмыслицу. Нормально ли это? Вряд ли…
Эксперты пока строят разные догадки. Возможно, у ChatGPT была слишком высокая «температура» (параметр, определяющий отклонение от вероятного ответа), или он терял контекст разговора.
Возможно, тестировалась новая версия GPT-4 Turbo с ошибками. Или проблема в отдельной функции, вроде недавно добавленной «памяти».