Новый метод учит системы ИИ думать, прежде чем реагировать на подсказки, точно так же, как люди обдумывают, что сказать дальше. Обычно такие чат-боты, как ChatGPT, не «думают» о том, что пишут, и не предвидят различные возможности для следующих шагов в разговоре.
Его назвали «Quiet-STaR», он предписывает системе искусственного интеллекта параллельно генерировать множество внутренних обоснований, прежде чем реагировать на диалоговую подсказку. Когда ИИ отвечает на запросы, он генерирует смесь этих прогнозов с обоснованием и без него, выдавая лучший ответ. Его может проверить человек, в зависимости от характера вопроса. В итоге, он учится, отбрасывая обоснования, которые оказались неверными. По сути, метод обучения дает агентам ИИ возможность предвидеть будущие разговоры и учиться на текущих.
Исследователи применили алгоритм Quiet-STaR к Mistral 7B, большой языковой модели с открытым исходным кодом и опубликовали результаты в базе данных препринтов arXiv. Документ еще не прошел рецензирование.
Версия Mistral 7B, обученная Quiet-STaR, набрала 47,2% в тесте на мышление по сравнению с 36,3% до любого обучения. Однако он все равно провалил школьный тест по математике, набрав 10,9%. Но это почти вдвое превышает стартовый показатель в 5,9% в обычной версии.
Читать далее:
Магнитную левитацию испытали на обычной железной дороге
Опубликовано видео с самым быстрым роботом в мире
Гигантская «песчаная батарея» будет отапливать город в Финляндии
Обложка: Gerd Altmann, Public Domain Pictures | Сведения о лицензии