博客
关于我
ShakeDrop:深度残差学习中的 ShakeDrop 正则化
阅读量:799 次
发布时间:2023-04-15

本文共 1018 字,大约阅读时间需要 3 分钟。

ShakeDrop正则化方法在深度残差学习中的应用

在ResNeXt、ResNet、Wide ResNet(WRN)和PyramidNet等网络架构中,ShakeDrop正则化方法展现出优异的性能,优于Shake-Shake和RandomDrop。ShakeDrop通过结合两种不同的扰动方法,既能有效防止过拟合,又能保持模型的良好收敛性。

Shake-Shake的背景

Shake-Shake是一种通过随机调整网络权重来增强模型的正则化方法。其核心思想是,在训练过程中为每个样本生成两个随机系数α和β,分别用于不同的网络分支。Shake-Shake通过插值两个残差分支的输出,合成合理的增强数据,从而达到防止过拟合的目的。

RandomDrop的机制

RandomDrop则是一种通过随机丢弃网络构建块来加深网络的学习过程。它通过线性衰减概率pl来控制每个构建块被丢弃的比例,确保网络在学习过程中保持一定的深度。与Dropout不同,RandomDrop是层级的,而非元素的随机丢弃。

ShakeDrop的创新

ShakeDrop正则化方法将Shake-Shake和RandomDrop的优点结合起来,通过混合两种扰动方式,实现更强大的防过拟合效果。当α和β都为0时,ShakeDrop退化为RandomDrop;当α和β逐渐增加时,ShakeDrop逐步融合了Shake-Shake的特性。

实验结果

在CIFAR、ImageNet以及COCO检测和分割任务中,ShakeDrop展现出显著的性能优势。它不仅在ResNeXt等多分支网络中优于Shake-Shake和RandomDrop,在ResNet、Wide ResNet和PyramidNet等双分支网络中也显著超过了原始网络和RandomDrop。

结合Mixup的协同作用

ShakeDrop与Mixup正则化方法的结合进一步提升了模型性能。在大多数任务中,ShakeDrop能够在使用Mixup的情况下,显著降低误差率。这表明,ShakeDrop并非单纯的正则化方法,而是与其他增强方法协同工作的有效伙伴。

结论

ShakeDrop正则化方法通过创新的混合扰动策略,为深度残差网络的训练提供了一种高效的解决方案。它不仅保持了模型的良好收敛性,还显著提升了模型的泛化能力。对于希望在深度学习任务中取得优异性能的研究人员和工程师,ShakeDrop是一个值得深入探索的方向。

转载地址:http://lrrfk.baihongyu.com/

你可能感兴趣的文章
MySQL 高可用性之keepalived+mysql双主
查看>>
mysql 默认事务隔离级别下锁分析
查看>>
Mysql--逻辑架构
查看>>
MySql-2019-4-21-复习
查看>>
mysql-5.7.18安装
查看>>
MySQL-Buffer的应用
查看>>
mysql-cluster 安装篇(1)---简介
查看>>
mysql-connector-java各种版本下载地址
查看>>
mysql-EXPLAIN
查看>>
mysql-group_concat
查看>>
MySQL-redo日志
查看>>
MySQL-【1】配置
查看>>
MySQL-【4】基本操作
查看>>
Mysql-丢失更新
查看>>
Mysql-事务阻塞
查看>>
Mysql-存储引擎
查看>>
mysql-开启慢查询&所有操作记录日志
查看>>
MySQL-数据目录
查看>>
MySQL-数据页的结构
查看>>
MySQL-架构篇
查看>>