Бэггинг: случайный лес и out-of-bag оценка
🔒 Sign in to use this
Глава 4: Ансамблевые методы
Одна модель ошибается. Сто моделей, ошибающихся по-разному, вместе ошибаются гораздо меньше. Это принцип ансамблей — комбинировать множество слабых моделей чтобы получить одну сильную. Random Forest, XGBoost, LightGBM, CatBoost — все победители kaggle-соревнований последних лет используют именно ансамблевые методы для табличных данных. Эта глава объясняет как работают два фундаментальных подхода: бэггинг (параллельные деревья) и бустинг (последовательные деревья), и как правильно подбирать гиперпараметры через кросс-валидацию.
Content is available with subscription.
Get full access to all courses on the platform for one year with a single payment.
▼
▼
Unlike other platforms that charge per course, here you get everything for one price, and after one year of use there will be no automatic charge for the following year.
🔒 Sign in to use this