ResNet: остаточные связи и обучение глубоких CNN
🔒 Sign in to use this
ResNet: почему 152 слоя лучше чем 20
До 2015 года добавление слоёв после определённой точки ухудшало качество — даже на train. Не переобучение: модель просто переставала обучаться. Это называлось degradation problem. He et al. решили это одной идеей: если добавленные слои ничего не улучшают, пусть они научатся предсказывать нуль. Тогда выход блока = вход (identity). Skip connection делает это тривиальным — градиент всегда имеет запасной прямой путь.
Content is available with subscription.
Get full access to all courses on the platform for one year with a single payment.
▼
▼
Unlike other platforms that charge per course, here you get everything for one price, and after one year of use there will be no automatic charge for the following year.
🔒 Sign in to use this