DevLearn logo
Skill Up With Me
Interactive Learning
Signing in…

Бэггинг: случайный лес и out-of-bag оценка

🔒 Sign in to use this
Глава 4: Ансамблевые методы

Одна модель ошибается. Сто моделей, ошибающихся по-разному, вместе ошибаются гораздо меньше. Это принцип ансамблей — комбинировать множество слабых моделей чтобы получить одну сильную. Random Forest, XGBoost, LightGBM, CatBoost — все победители kaggle-соревнований последних лет используют именно ансамблевые методы для табличных данных. Эта глава объясняет как работают два фундаментальных подхода: бэггинг (параллельные деревья) и бустинг (последовательные деревья), и как правильно подбирать гиперпараметры через кросс-валидацию.

Content is available with subscription.
Get full access to all courses on the platform for one year with a single payment.
Unlike other platforms that charge per course, here you get everything for one price, and after one year of use there will be no automatic charge for the following year.
🔒 Sign in to use this