博客
关于我
ShakeDrop:深度残差学习中的 ShakeDrop 正则化
阅读量:799 次
发布时间:2023-04-15

本文共 1018 字,大约阅读时间需要 3 分钟。

ShakeDrop正则化方法在深度残差学习中的应用

在ResNeXt、ResNet、Wide ResNet(WRN)和PyramidNet等网络架构中,ShakeDrop正则化方法展现出优异的性能,优于Shake-Shake和RandomDrop。ShakeDrop通过结合两种不同的扰动方法,既能有效防止过拟合,又能保持模型的良好收敛性。

Shake-Shake的背景

Shake-Shake是一种通过随机调整网络权重来增强模型的正则化方法。其核心思想是,在训练过程中为每个样本生成两个随机系数α和β,分别用于不同的网络分支。Shake-Shake通过插值两个残差分支的输出,合成合理的增强数据,从而达到防止过拟合的目的。

RandomDrop的机制

RandomDrop则是一种通过随机丢弃网络构建块来加深网络的学习过程。它通过线性衰减概率pl来控制每个构建块被丢弃的比例,确保网络在学习过程中保持一定的深度。与Dropout不同,RandomDrop是层级的,而非元素的随机丢弃。

ShakeDrop的创新

ShakeDrop正则化方法将Shake-Shake和RandomDrop的优点结合起来,通过混合两种扰动方式,实现更强大的防过拟合效果。当α和β都为0时,ShakeDrop退化为RandomDrop;当α和β逐渐增加时,ShakeDrop逐步融合了Shake-Shake的特性。

实验结果

在CIFAR、ImageNet以及COCO检测和分割任务中,ShakeDrop展现出显著的性能优势。它不仅在ResNeXt等多分支网络中优于Shake-Shake和RandomDrop,在ResNet、Wide ResNet和PyramidNet等双分支网络中也显著超过了原始网络和RandomDrop。

结合Mixup的协同作用

ShakeDrop与Mixup正则化方法的结合进一步提升了模型性能。在大多数任务中,ShakeDrop能够在使用Mixup的情况下,显著降低误差率。这表明,ShakeDrop并非单纯的正则化方法,而是与其他增强方法协同工作的有效伙伴。

结论

ShakeDrop正则化方法通过创新的混合扰动策略,为深度残差网络的训练提供了一种高效的解决方案。它不仅保持了模型的良好收敛性,还显著提升了模型的泛化能力。对于希望在深度学习任务中取得优异性能的研究人员和工程师,ShakeDrop是一个值得深入探索的方向。

转载地址:http://lrrfk.baihongyu.com/

你可能感兴趣的文章
MYSQL从入门到精通(一)
查看>>
MYSQL从入门到精通(二)
查看>>
mysql以下日期函数正确的_mysql 日期函数
查看>>
mysql以服务方式运行
查看>>
mysql优化--索引原理
查看>>
MySQL优化之BTree索引使用规则
查看>>
MySQL优化之推荐使用规范
查看>>
Webpack Critical CSS 提取与内联教程
查看>>
mysql优化概述(范式.索引.定位慢查询)
查看>>
MySQL优化的一些需要注意的地方
查看>>
mysql优化相关
查看>>
MySql优化系列-优化版造数据(存储过程+函数+修改存储引擎)-2
查看>>
MySql优化系列-进阶版造数据(load data statment)-3
查看>>
MySql优化系列-造数据(存储过程+函数)-1
查看>>
MySQL优化配置详解
查看>>
Mysql优化高级篇(全)
查看>>
mysql会员求积分_MySql-统计所有会员的最高前10次的积分和
查看>>
mysql会对联合索性排序优化_MySQL索引优化实战
查看>>
MySQL作为服务端的配置过程与实际案例
查看>>