DevLearn logo
Skill Up With Me
Interactive Learning
Signing in…

ResNet: остаточные связи и обучение глубоких CNN

🔒 Sign in to use this
ResNet: почему 152 слоя лучше чем 20

До 2015 года добавление слоёв после определённой точки ухудшало качество — даже на train. Не переобучение: модель просто переставала обучаться. Это называлось degradation problem. He et al. решили это одной идеей: если добавленные слои ничего не улучшают, пусть они научатся предсказывать нуль. Тогда выход блока = вход (identity). Skip connection делает это тривиальным — градиент всегда имеет запасной прямой путь.

Content is available with subscription.
Get full access to all courses on the platform for one year with a single payment.
Unlike other platforms that charge per course, here you get everything for one price, and after one year of use there will be no automatic charge for the following year.
🔒 Sign in to use this