版权说明 操作指南
首页 > 成果 > 详情

Negative effects of sufficiently small initialweights on back-propagation neural networks

认领
导出
Link by 中国知网学术期刊 Link by 维普学术期刊
反馈
分享
QQ微信 微博
成果类型:
期刊论文
作者:
Liu, Yan;Yang, Jie;Li, Long;Wu, Wei*
通讯作者:
Wu, Wei
作者机构:
[Liu, Yan; Wu, Wei; Yang, Jie] Dalian Univ Technol, Sch Math Sci, Dalian 116024, Peoples R China.
[Liu, Yan] Dalian Polytech Univ, Sch Informat Sci & Engn, Dalian 116034, Peoples R China.
[Li, Long] Hengyang Normal Univ, Dept Math & Computat Sci, Hengyang 421002, Peoples R China.
通讯机构:
[Wu, Wei] D
Dalian Univ Technol, Sch Math Sci, Dalian 116024, Peoples R China.
语种:
英文
关键词:
Neural networks;Back-propagation;Gradient learning method;Convergence
关键词(中文):
神经网络;背繁殖;坡度学习方法;集中
期刊:
信息与电子工程前沿(英文)
ISSN:
2095-9184
年:
2012
卷:
13
期:
8
页码:
585-592
基金类别:
National Natural Science Foundation of ChinaNational Natural Science Foundation of China (NSFC) [11171367]; Fundamental Research Funds for the Central Universities, ChinaFundamental Research Funds for the Central Universities
机构署名:
本校为其他机构
院系归属:
数学与统计学院
摘要:
In the training of feedforward neural networks, it is usually suggested that the initial weights should be small in magnitude in order to prevent premature saturation. The aim of this paper is to point out the other side of the story: In some cases, the gradient of the error functions is zero not only for infinitely large weights but also for zero weights. Slow convergence in the beginning of the training procedure is often the result of sufficiently small initial weights. Therefore, we suggest that, in these cases, the initial values of the we...
摘要(中文):
在训练前馈控制神经网络,起始的重量应该在大小是小的以便阻止早熟的浸透,这通常被建议。这份报纸的目的是指出这个故事的另外的方面:在一些情况中,错误功能的坡度不仅为无穷地大的重量而且为零重量是零。在训练过程的开始的慢集中经常是足够地小的起始的重量的结果。因此,我们建议在这些情况中,重量的起始的价值也应该大,也不太小。例如,起始的重量的选择的一个典型范围可能是相似的一些东西(0.4,0.1 )(0.1, 0.4 ) ,而非(0.1, 0.1 ) 是由平常的策略建议了。我们中等尺寸重量应该被使用的理论也被扩大了到一些通常使用的转移功能和错误功能。数字实验被执行支持我们的理论调查结果。...

反馈

验证码:
看不清楚,换一个
确定
取消

成果认领

标题:
用户 作者 通讯作者
请选择
请选择
确定
取消

提示

该栏目需要登录且有访问权限才可以访问

如果您有访问权限,请直接 登录访问

如果您没有访问权限,请联系管理员申请开通

管理员联系邮箱:yun@hnwdkj.com