LoRA/QLoRA в глубину: математика, выбор rank, практика
🔒 Sign in to use this
LoRA и QLoRA: математика, выбор ранга и практика
LoRA — это метод, который демократизировал тонкую настройку LLM. До этого для тонкой настройки модели 7B требовалось ~112 ГБ памяти графического процессора — 14 A100. С QLoRA та же задача выполняется на одном потребительском графическом процессоре емкостью 24 ГБ. В этом уроке объясняется математический трюк, который делает это возможным, как выбрать ключевой гиперпараметр (ранг) и как использовать его на практике.
Content is available with subscription.
Get full access to all courses on the platform for one year with a single payment.
▼
▼
Unlike other platforms that charge per course, here you get everything for one price, and after one year of use there will be no automatic charge for the following year.
🔒 Sign in to use this