博客
关于我
ShakeDrop:深度残差学习中的 ShakeDrop 正则化
阅读量:799 次
发布时间:2023-04-15

本文共 1018 字,大约阅读时间需要 3 分钟。

ShakeDrop正则化方法在深度残差学习中的应用

在ResNeXt、ResNet、Wide ResNet(WRN)和PyramidNet等网络架构中,ShakeDrop正则化方法展现出优异的性能,优于Shake-Shake和RandomDrop。ShakeDrop通过结合两种不同的扰动方法,既能有效防止过拟合,又能保持模型的良好收敛性。

Shake-Shake的背景

Shake-Shake是一种通过随机调整网络权重来增强模型的正则化方法。其核心思想是,在训练过程中为每个样本生成两个随机系数α和β,分别用于不同的网络分支。Shake-Shake通过插值两个残差分支的输出,合成合理的增强数据,从而达到防止过拟合的目的。

RandomDrop的机制

RandomDrop则是一种通过随机丢弃网络构建块来加深网络的学习过程。它通过线性衰减概率pl来控制每个构建块被丢弃的比例,确保网络在学习过程中保持一定的深度。与Dropout不同,RandomDrop是层级的,而非元素的随机丢弃。

ShakeDrop的创新

ShakeDrop正则化方法将Shake-Shake和RandomDrop的优点结合起来,通过混合两种扰动方式,实现更强大的防过拟合效果。当α和β都为0时,ShakeDrop退化为RandomDrop;当α和β逐渐增加时,ShakeDrop逐步融合了Shake-Shake的特性。

实验结果

在CIFAR、ImageNet以及COCO检测和分割任务中,ShakeDrop展现出显著的性能优势。它不仅在ResNeXt等多分支网络中优于Shake-Shake和RandomDrop,在ResNet、Wide ResNet和PyramidNet等双分支网络中也显著超过了原始网络和RandomDrop。

结合Mixup的协同作用

ShakeDrop与Mixup正则化方法的结合进一步提升了模型性能。在大多数任务中,ShakeDrop能够在使用Mixup的情况下,显著降低误差率。这表明,ShakeDrop并非单纯的正则化方法,而是与其他增强方法协同工作的有效伙伴。

结论

ShakeDrop正则化方法通过创新的混合扰动策略,为深度残差网络的训练提供了一种高效的解决方案。它不仅保持了模型的良好收敛性,还显著提升了模型的泛化能力。对于希望在深度学习任务中取得优异性能的研究人员和工程师,ShakeDrop是一个值得深入探索的方向。

转载地址:http://lrrfk.baihongyu.com/

你可能感兴趣的文章
MAC M1大数据0-1成神篇-25 hadoop高可用搭建
查看>>
mac mysql 进程_Mac平台下启动MySQL到完全终止MySQL----终端八步走
查看>>
Mac OS 12.0.1 如何安装柯美287打印机驱动,刷卡打印
查看>>
MangoDB4.0版本的安装与配置
查看>>
Manjaro 24.1 “Xahea” 发布!具有 KDE Plasma 6.1.5、GNOME 46 和最新的内核增强功能
查看>>
mapping文件目录生成修改
查看>>
MapReduce程序依赖的jar包
查看>>
mariadb multi-source replication(mariadb多主复制)
查看>>
MariaDB的简单使用
查看>>
MaterialForm对tab页进行隐藏
查看>>
Member var and Static var.
查看>>
memcached高速缓存学习笔记001---memcached介绍和安装以及基本使用
查看>>
memcached高速缓存学习笔记003---利用JAVA程序操作memcached crud操作
查看>>
Memcached:Node.js 高性能缓存解决方案
查看>>
memcache、redis原理对比
查看>>
memset初始化高维数组为-1/0
查看>>
Metasploit CGI网关接口渗透测试实战
查看>>
Metasploit Web服务器渗透测试实战
查看>>
MFC模态对话框和非模态对话框
查看>>
Moment.js常见用法总结
查看>>