Языковая модель GPT-4, лежащая в основе чат-бота, на июнь 2023 года стала намного «глупее», чем та же модель, но на март 2023 года. При этом языковая модель GPT-3.5, напротив, в большинстве задач стала лучше, хотя и у неё есть проблемы, пишет портал ixbt.com.
Изображение сгенерировано нейросетью Kandinsky 2.2
Исследователи Стэнфордского университета задавали чат-боту различные вопросы и оценивали правильность ответов. Причём речь шла не о каких-то абстрактных вещах, а о вполне конкретных. К примеру, искусственный интеллект должен был ответить, является ли число 17 077 простым. Дабы лучше понять процесс «размышления» ИИ, а заодно улучшить результат, чат-бота попросили расписывать свои вычисления шаг за шагом. Обычно в таком режиме ИИ чаще отвечает правильно.
Однако это не помогло. Если ещё в марте модель GPT-4 давала правильный ответ в 97,6% случаев, то в июне показатель упал до 2,4%. То есть почти никогда чат-бот не мог правильно ответить на вопрос. В случае GPT-3.5 показатель, напротив, вырос с 7,4% до 86,8%.
Электронное периодическое издание. Свидетельство о регистрации СМИ Эл № ФС77-42756 от 25 ноября 2010 года выдано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Учредитель: Общество с ограниченной ответственностью "Гражданская пресса"
Полное использование материалов сайта запрещено. При получении согласия на полное использование материалов сайта, а также при частичном использовании отдельных материалов сайта ссылка (при публикации в сети Internet - гиперссылка) на сайт «Псковская лента новостей» обязательна