Помните того дружелюбного ИИ-помощника ChatGPT, который всегда готов помочь с текстом, идеями или просто поболтать? Так вот, похоже, у него случился временный приступ «сумасшествия». Во вторник пользователи стали массово жаловаться на странные ответы: несвязный бред, бессмысленные стихи, а кто-то даже сравнил это с «потерей рассудка» у компьютера. OpenAI, создатели ChatGPT, признали проблему и работают над решением, но ситуация примечательна тем, как люди воспринимают сбои в больших языковых моделях. Эти модели пытаются имитировать человека, и когда что-то идёт не так, пользователям приходится прибегать к таким метафорам как «потерял рассудок». Ведь OpenAI не раскрывает, как именно работает ChatGPT, оставляя его внутреннее устройство «чёрным ящиком». Некоторым людям даже пришлось усомниться в своей адекватности! Спрашивали про кормление собаки хлопьями, а в ответ получили бессмыслицу. Нормально ли это? Вряд ли… Эксперты пока строят разные догадки. Возможно, у ChatGPT была слишком высокая «температура» (параметр, определяющий отклонение от вероятного ответа), или он терял контекст разговора. Возможно, тестировалась новая версия GPT-4 Turbo с ошибками. Или проблема в отдельной функции, вроде недавно добавленной «памяти».