博客
关于我
ShakeDrop:深度残差学习中的 ShakeDrop 正则化
阅读量:799 次
发布时间:2023-04-15

本文共 1018 字,大约阅读时间需要 3 分钟。

ShakeDrop正则化方法在深度残差学习中的应用

在ResNeXt、ResNet、Wide ResNet(WRN)和PyramidNet等网络架构中,ShakeDrop正则化方法展现出优异的性能,优于Shake-Shake和RandomDrop。ShakeDrop通过结合两种不同的扰动方法,既能有效防止过拟合,又能保持模型的良好收敛性。

Shake-Shake的背景

Shake-Shake是一种通过随机调整网络权重来增强模型的正则化方法。其核心思想是,在训练过程中为每个样本生成两个随机系数α和β,分别用于不同的网络分支。Shake-Shake通过插值两个残差分支的输出,合成合理的增强数据,从而达到防止过拟合的目的。

RandomDrop的机制

RandomDrop则是一种通过随机丢弃网络构建块来加深网络的学习过程。它通过线性衰减概率pl来控制每个构建块被丢弃的比例,确保网络在学习过程中保持一定的深度。与Dropout不同,RandomDrop是层级的,而非元素的随机丢弃。

ShakeDrop的创新

ShakeDrop正则化方法将Shake-Shake和RandomDrop的优点结合起来,通过混合两种扰动方式,实现更强大的防过拟合效果。当α和β都为0时,ShakeDrop退化为RandomDrop;当α和β逐渐增加时,ShakeDrop逐步融合了Shake-Shake的特性。

实验结果

在CIFAR、ImageNet以及COCO检测和分割任务中,ShakeDrop展现出显著的性能优势。它不仅在ResNeXt等多分支网络中优于Shake-Shake和RandomDrop,在ResNet、Wide ResNet和PyramidNet等双分支网络中也显著超过了原始网络和RandomDrop。

结合Mixup的协同作用

ShakeDrop与Mixup正则化方法的结合进一步提升了模型性能。在大多数任务中,ShakeDrop能够在使用Mixup的情况下,显著降低误差率。这表明,ShakeDrop并非单纯的正则化方法,而是与其他增强方法协同工作的有效伙伴。

结论

ShakeDrop正则化方法通过创新的混合扰动策略,为深度残差网络的训练提供了一种高效的解决方案。它不仅保持了模型的良好收敛性,还显著提升了模型的泛化能力。对于希望在深度学习任务中取得优异性能的研究人员和工程师,ShakeDrop是一个值得深入探索的方向。

转载地址:http://lrrfk.baihongyu.com/

你可能感兴趣的文章
MongoDB学习笔记(8)--索引及优化索引
查看>>
ms sql server 2008 sp2更新异常
查看>>
MS UC 2013-0-Prepare Tool
查看>>
msbuild发布web应用程序
查看>>
MSCRM调用外部JS文件
查看>>
MSEdgeDriver (Chromium) 不适用于版本 >= 79.0.313 (Canary)
查看>>
msf
查看>>
MSSQL数据库查询优化(一)
查看>>
MSSQL日期格式转换函数(使用CONVERT)
查看>>
MSTP多生成树协议(第二课)
查看>>
MSTP是什么?有哪些专有名词?
查看>>
Mstsc 远程桌面链接 And 网络映射
查看>>
Myeclipse常用快捷键
查看>>
MyEclipse用(JDBC)连接SQL出现的问题~
查看>>
myeclipse的新建severlet不见解决方法
查看>>
MyEclipse设置当前行背景颜色、选中单词前景色、背景色
查看>>
MyEclipse配置SVN
查看>>
MTCNN 人脸检测
查看>>
MyEcplise中SpringBoot怎样定制启动banner?
查看>>
MyPython
查看>>