石大要闻

当前位置: 首页 > 石大要闻 > 正文
IEEE Transactions on Cybernetics刊发王健团队研究成果
发布时间:2019-11-14 08:25:33点击数:字号:
分享到:
我要评论 0
审核人 蒋大森

【本站讯】近日,理学院王健副教授与印度统计研究所Nikhil R. Pal (印度科学院院士,IEEE Fellow)教授合作,在神经网络容错学习理论和结构优化研究中取得新进展。相关论文《带权值噪音的组稀疏正则神经网络:渐近收敛性及结构修剪策略》(Weight Noise Injection-Based MLPs With Group Lasso Penalty: Asymptotic Convergence and Application to Node Pruning)被国际人工智能领域权威期刊IEEE Transactions on Cybernetics刊发。我校王健副教授为第一作者,Nikhil R. Pal院士为通讯作者,中国石油大学(华东)为第一署名单位。该研究得到国家自然科学基金、山东省自然科学基金和中央高校基本科研业务基金资助。

神经网络是对人脑神经系统的一个简单模拟,由于其具有分布式存储、并行计算及良好的处理非线性问题的能力而得到广泛研究。利用神经网络进行动态系统的容错控制是现代容错控制技术的重要组成部分,已成功应用于诸多工程领域。现有研究主要考虑加入L2正则子权值衰减项,进行容错学习算法改进、目标函数设计及渐近收敛性分析等。但由于L2正则子自身性质的特点,决定了此类算法不易产生稀疏解,在处理变量选择、特征提取和结构优化等问题时不可避免地处于劣势,限制了神经网络学习算法的应用广度。

针对上述难题,王健团队从网络模型设计角度出发,在训练过程中考虑加性噪音和乘性噪音的同时加入Group Lasso正则项,实验结果表明该容错学习算法对这两种典型噪音都有很强的鲁棒性。对比L2正则子,Group Lasso正则子具有更易产生稀疏解的优势,但其非凸、非光滑的函数特性容易导致训练过程中产生振荡现象,该团队借助函数光滑逼近的思想有效避免了奇点问题,并严格证明了学习模型的渐近收敛性结论,保证了设计算法的合理性,为容错学习结构优化模型的设计提供技术支持和理论指导。

审稿专家认为,该研究成果在容错学习模型设计方面具有较好的应用推广价值,尤其在深度学习构造最简网络结构具有很强的指导作用。

IEEE Transactions on Cybernetics创刊于1960年,在自动化与控制系统、人工智能和控制论领域具有很高的影响力,对研究内容的创新性、前沿性要求非常严格,最新影响因子为10.387,属于SCI一区TOP期刊,是控制论与人工智能域的顶级期刊之一。

全文链接:https://ieeexplore.ieee.org/document/8561200?denied


【 作者:谢雪涛 来自:理学院  责任编辑:卜令朵 审核:蒋大森】

关闭

请遵守《互联网电子公告服务管理规定》及中华人民共和国其他有关法律法规。
用户需对自己在使用本站服务过程中的行为承担法律责任。
本站管理员有权保留或删除评论内容。
评论内容只代表网友个人观点,与本网站立场无关。
 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1

联系方式

联系电话:(0532)86983218

网站维护:中国石油大学(华东)创造太阳网学生工作室

地址:青岛市黄岛区长江西路66号 邮编:266580

山东省东营市东营区北一路739号 邮编:257061

鲁ICP备05021531号