一种改进的深度学习模型自适应学习率策略
CSTR:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金(51205405,51305454)


An Improved Depth Learning Model Adaptive Learning Rate Strategy
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对当前深度学习中学习率不能完全拟合模型运行状态,导致收敛速度较慢和误差较大的问题,提出一 种自适应学习率策略AdaDouL。该策略是在上一回合学习率的基础上利用当前的梯度去自适应调节学习率的大小, 并根据损失函数的增量正负值给出2 种不同下降速度的学习率形式,以模型的输出和标签之间的损失函数作为评价 指标,在Vot2015 数据集上使用构建的卷积神经网络模型进行实验验证。验证结果表明:使用该学习策略的深度模 型相比使用AdaGrad 和AadDec 学习策略具有更快的收敛速度,并且收敛误差值也有一定降低;进行检测测试时, 中心误差精度提升了4.5%,检测准确率上升了2.1%。

    Abstract:

    In view of the deep learning rate can not completely fit the running state model, resulting in slow convergence speed and large error, this paper proposes an adaptive learning rate strategy AdaDouL. Based on the learning rate of the last round, use the current gradient to adaptively adjust the learning rate, and according to the increment plus or minus value of the loss function, 2 learning rates of different descent rates are given. With the loss of function between the model output and the label as the evaluation index, the simulation is carried out, using convolutional neural network model on Vot2015 data sets. The results show that the depth model using learning strategies has faster convergence speed than learning strategies using AdaGrad and AadDec, convergence error is reduced. The test shows that center error accuracy increased by 4.5%, the detection rate increased by 2.1%.

    参考文献
    相似文献
    引证文献
引用本文

刘 帆.一种改进的深度学习模型自适应学习率策略[J].,2019,38(01).

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-09-14
  • 最后修改日期:2018-12-26
  • 录用日期:
  • 在线发布日期: 2019-03-22
  • 出版日期:
文章二维码