Южнокорейские ученые использовали специальную технику, известную как дистилляция знаний, для сжатия размера модели генерации изображений с открытым исходным кодом Stable Diffusion XL. У нее 2,56 млрд параметров, или переменных, которые ИИ использует для обучения.
У самой маленькой версии новой модели, которую разработчики назвали KOALA, всего 700 млн параметров. Она достаточно компактна, чтобы работать быстро и без необходимости дорогостоящего и энергоемкого оборудования.
Инструмент может работать на недорогих графических процессорах (GPU) и требует примерно 8 ГБ оперативной памяти для обработки запросов.
Во время экспериментов KOALA генерировала изображение на основе промта «изображение астронавта, читающего книгу под луной на Марсе» за 1,6 секунды. Согласно заявлению, DALL·E 2 от OpenAI требуется на ту же задачу 12,3 секунды, а DALL·E 3 — 13,7 секунды.
Инженеры опубликовали результаты работы в статье на базе данных препринтов arXiv . Они также сделали проект доступным через репозиторий искусственного интеллекта с открытым исходным кодом Hugging Face.
Читать далее:
Анализ самого старого скелета в Бразилии показал, куда исчезли древние строители
Главную идею Эйнштейна хотят проверить еще раз: как это изменит физику
Распад суперконтинентов выносит алмазы на поверхность Земли
Обложка: Kandinsky by Sber AI