期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
复杂环境下基于深度神经网络的摄像机标定
1
作者 向鹏 周宾 +3 位作者 祝仰坤 贺文凯 岳晓庚 陶依贝 《激光与光电子学进展》 CSCD 北大核心 2019年第11期206-214,共9页
提出一种基于深度神经网络的摄像机标定方法,实现了复杂环境下平面区域内的灵活、高精度标定。无需进行数据特征提取或分类,仅通过优化网络结构、超参数与训练算法,深度神经网络便能得到快速有效的训练。实验结果表明,相较于张正友标定... 提出一种基于深度神经网络的摄像机标定方法,实现了复杂环境下平面区域内的灵活、高精度标定。无需进行数据特征提取或分类,仅通过优化网络结构、超参数与训练算法,深度神经网络便能得到快速有效的训练。实验结果表明,相较于张正友标定法与浅层神经网络标定法,该方法在大范围、多拍摄角度和高畸变条件下均能达到更高的标定精度,镜头存在高畸变时,633mm×763mm标定范围内的平均标定误差仅为0.1471mm。 展开更多
关键词 机器视觉 摄像机标定 深度神经网络 修正线性单元 自适应矩估计
一种新型激活函数:提高深层神经网络建模能力 预览
2
作者 贺扬 成凌飞 +1 位作者 张培玲 李艳 《测控技术》 2019年第4期50-53,58共5页
修正线性单元做为深层神经网络的激活函数,常被用来处理复杂的函数来提高深层神经网络的建模能力。针对传统修正线性单元提出一种新的激活函数——Tanh ReLU,Tanh ReLU在修正线性单元的基础上为其添加一个负值和边界值,同时保证Tanh ReL... 修正线性单元做为深层神经网络的激活函数,常被用来处理复杂的函数来提高深层神经网络的建模能力。针对传统修正线性单元提出一种新的激活函数——Tanh ReLU,Tanh ReLU在修正线性单元的基础上为其添加一个负值和边界值,同时保证Tanh ReLU函数在原点处相切,以此克服由于修正线性单元激活函数非零均值激活、极大输出值和原点处不连续的缺点而损害网络的生成。将此新的激活函数应用于MNIST手写数据分类实验以验证其建立的深层神经网络的性能;同时针对网络中不同的超参数的选择,来进一步验证Tanh ReLU对于提高深层神经网络模型性能的影响。实验结果表明:与修正线性单元相比,Tanh ReLU建立的深层神经网络得到了更好的分类结果,实现了提高深层神经网络分类性能的目的。 展开更多
关键词 深层神经网络 激活函数 修正线性单元 分类性能
在线阅读 免费下载
一种改进的卷积神经网络SAR目标识别算法 预览 被引量:3
3
作者 许强 李伟 +1 位作者 占荣辉 邹鲲 《西安电子科技大学学报》 CSCD 北大核心 2018年第5期177-183,共7页
针对卷积神经网络在标签数据不足条件下易发生的过拟合现象及噪声条件下的合成孔径雷达目标识别问题,提出了一种改进的卷积神经网络目标识别算法.首先利用数据增强技术扩增训练集,以提高网络泛化能力;其次利用零相位成分分析对目标进行... 针对卷积神经网络在标签数据不足条件下易发生的过拟合现象及噪声条件下的合成孔径雷达目标识别问题,提出了一种改进的卷积神经网络目标识别算法.首先利用数据增强技术扩增训练集,以提高网络泛化能力;其次利用零相位成分分析对目标进行特征提取,得到一组特征集对卷积神经网络进行预训练.为优化网络结构,防止过拟合现象,在网络中采用了修正线性单元、Dropout、正则化、单位卷积核等稀疏性技术.实验表明,算法对各类目标及其变形目标子类具有较好的识别性能,并对噪声有较强的鲁棒性,是一种有效的目标识别算法. 展开更多
关键词 卷积神经网络 合成孔径雷达 数据增强 修正线性单元
在线阅读 下载PDF
一种新的深度卷积神经网络的SLU函数 预览
4
作者 赵慧珍 刘付显 李龙跃 《哈尔滨工业大学学报》 CSCD 北大核心 2018年第4期117-123,共7页
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制... 修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度. 展开更多
关键词 深度学习 卷积神经网络 激活函数 softplus函数 修正线性单元
在线阅读 免费下载
改进Softmax分类器的深度卷积神经网络及其在人脸识别中的应用 预览 被引量:7
5
作者 冉鹏 王灵 +1 位作者 李昕 刘鹏伟 《上海大学学报:自然科学版》 CSCD 北大核心 2018年第3期352-366,共15页
提出了一种有效的特征学习方法,构建了9层结构的卷积神经网络,利用Softmax回归算法进行人脸分类识别.卷积神经网络在输出层利用改进的Softmax进行分类,在隐藏层采用修正线性单元作为激活函数,并在网络中加入局部响应归一化处理,有效避... 提出了一种有效的特征学习方法,构建了9层结构的卷积神经网络,利用Softmax回归算法进行人脸分类识别.卷积神经网络在输出层利用改进的Softmax进行分类,在隐藏层采用修正线性单元作为激活函数,并在网络中加入局部响应归一化处理,有效避免了梯度消失问题.利用大量人脸图像数据对网络进行预训练,得到较好的网络初始权重.在针对YALE,FERET,LFW-A等人脸数据库进行人脸识别实验中,与现有的几种人脸识别方法SDAEs,RRC,MPCRC,CRC,SRC等进行对比表明,该方法在各人脸数据库的识别中均得到较高的识别率. 展开更多
关键词 卷积神经网络 线性修正单元 局部响应归一化 人脸识别
在线阅读 下载PDF
基于深度卷积神经网络的图像去噪研究 预览 被引量:21
6
作者 李传朋 秦品乐 张晋京 《计算机工程》 CAS CSCD 北大核心 2017年第3期253-260,共8页
为更有效地去除图像中的噪声,提出一种深度学习的图像去噪方法。以完整图像作为网络的输入及输出图像,通过隐含层构成由含噪声图像到去噪图像的非线性映射,由卷积子网和反卷积子网构成一种对称式的网络结构,卷积子网学习图像特征,反卷... 为更有效地去除图像中的噪声,提出一种深度学习的图像去噪方法。以完整图像作为网络的输入及输出图像,通过隐含层构成由含噪声图像到去噪图像的非线性映射,由卷积子网和反卷积子网构成一种对称式的网络结构,卷积子网学习图像特征,反卷积子网根据特征图恢复原始图像,并结合修正线性单元获取更多的纹理细节。以VOC2012数据集作为训练集,使用Tensorflow在GPU环境下训练网络模型。实验结果表明,与GSM,KSVD,CN2,MLP方法相比,该方法能更有效地去除图像中的噪声,获得更高的峰值信噪比,耗时更短,视觉效果更佳。 展开更多
关键词 卷积神经网络 图像去噪 反卷积 深度学习 修正线性单元
在线阅读 下载PDF
绝对值激活深度神经网络的串联故障电弧检测 预览
7
作者 余琼芳 黄高路 杨艺 《计算机应用》 CSCD 北大核心 2019年第A01期54-59,共6页
串联故障电弧具有隐蔽性和随机性,发生时线路电流波形受负载类型的影响而具有复杂性,检测难度大,严重威胁用电系统安全。鉴于电流数据具有大量负值的特点,提出用绝对值函数作为激活函数改进AlexNet深度学习网络检测串联故障电弧,并分析... 串联故障电弧具有隐蔽性和随机性,发生时线路电流波形受负载类型的影响而具有复杂性,检测难度大,严重威胁用电系统安全。鉴于电流数据具有大量负值的特点,提出用绝对值函数作为激活函数改进AlexNet深度学习网络检测串联故障电弧,并分析了激活函数特性对串联故障电弧检测效果的影响。把实验采集的三类负载分别在正常和发生串联故障电弧状态下的共7200组电流数据制作成训练集和测试集,并分别对使用四种激活函数的AlexNet网络进行训练和测试。实验结果显示,ELU激活的网络最高检测正确率为95.5%;而绝对值激活的网络效果最好,其平均检测正确率最高为97.25%,最低为93%,比ReLU激活的AlexNet网络最高88.75%的平均准确率高出最少4.25个百分点;而使用Sigmoid函数的网络不收敛。分析结果表明线性的激活数据特征有助于提高网络的检测准确率。 展开更多
关键词 串联故障电弧 深度学习 卷积神经网络 激活函数 绝对值函数 指数线性单元 修正线性单元
在线阅读 下载PDF
基于RA-DNN的电力变压器故障分类方法 预览
8
作者 曹渝昆 何健伟 《电气自动化》 2019年第2期98-101,107共5页
由于电力变压器故障的现象和原因存在一定的模糊性和随机性,传统方法在复杂的情况下识别变压器故障的精度不高。提出了一种基于深层神经网络的变压器故障分类方法,利用无编码的油中溶解气体分析(dissolvedgasanalysis,DGA)数据,结合深... 由于电力变压器故障的现象和原因存在一定的模糊性和随机性,传统方法在复杂的情况下识别变压器故障的精度不高。提出了一种基于深层神经网络的变压器故障分类方法,利用无编码的油中溶解气体分析(dissolvedgasanalysis,DGA)数据,结合深度学习流行的修正线性单元(rectifiedlinearunits,ReLU)函数、Adam优化算法和批归一化(batchnormalization,BN)的数据处理方法,通过与传统激活函数Sigmoid函数和随机梯度下降算法(stochasticgradientdescent,SGD)做对比试验。结果表明,采用ReLU+Adam方案的神经网络,收敛速度更快,损失函数的收敛值也更低,提高了模型训练的速度和鲁棒性。通过与反向传播神经网络(backpropagationneuralnetwork,BPNN)、支持向量机(supportvectormachine,SVM)的试验比较,在变压器故障分类上取得了较好的效果,为电力变压器的故障诊断提供新的方法与思路。 展开更多
关键词 变压器 深度学习 神经网络 修正线性单元 批归一化
在线阅读 下载PDF
采用精简卷积神经网络的快速视频超分辨率重建
9
作者 潘志勇 郁梅 +2 位作者 谢登梅 宋洋 蒋刚毅 《光电子.激光》 CSCD 北大核心 2018年第12期1332-1341,共10页
超分辨率重建在视频的传输和显示中起着重要的作用。为了既保证重建视频的清晰度,又面向用户实时显示,提出了一种采用精简卷积神经网络的快速视频超分辨率重建方法。所提的精简卷积神经网络体现在以下三点:首先,考虑到输入的尺寸大小会... 超分辨率重建在视频的传输和显示中起着重要的作用。为了既保证重建视频的清晰度,又面向用户实时显示,提出了一种采用精简卷积神经网络的快速视频超分辨率重建方法。所提的精简卷积神经网络体现在以下三点:首先,考虑到输入的尺寸大小会直接影响网络的运算速度,所提网络省去传统方法的预插值过程,直接对多个低分辨率输入视频帧提取特征,并进行多维特征通道融合。接着,为了避免网络中产生零梯度而丢失视频的重要信息,采用参数线性纠正单元(Parametric Rectified Linear Unit,PReLU)作为激活函数,并采用尺寸更小的滤波器调整网络结构以进行多层映射。最后,在网络末端添加反卷积层上采样得到重建视频。实验结果显示,所提方法相比有代表性的方法在PSNR和SSIM指标上分别平均提升了0.32dB和0.016,同时在GPU下达到平均41帧/秒的重建速度。结果表明所提方法可快速重建质量更优的视频。 展开更多
关键词 精简卷积神经网络 视频超分辨率 快速重建 参数线性纠正单元
一种改进的深度置信网络及其在自然图像分类中的应用 预览 被引量:4
10
作者 柴瑞敏 佀称称 《计算机应用与软件》 CSCD 2016年第9期221-223,244共4页
深度置信网络DBN(deep belief network)由受限玻尔兹曼机RBM(restricted Bohzmann machine)堆叠而成。针对RBM只能接受二值输入而导致的信息丢失问题,给出将可视层节点替换为具有高斯噪音的实数节点的解决方法,并且用线性修正节... 深度置信网络DBN(deep belief network)由受限玻尔兹曼机RBM(restricted Bohzmann machine)堆叠而成。针对RBM只能接受二值输入而导致的信息丢失问题,给出将可视层节点替换为具有高斯噪音的实数节点的解决方法,并且用线性修正节点替代隐层的Sigmoid节点。线性修正单元具有良好的稀疏性,可以很好地提高网络性能。DBN自底向上逐层训练网络,初始化网络的参数。在自然图像数据库中与传统DBN以及BP神经网络做分类性能比较,实验结果表明,改进的DBN的图像平均分类正确率以及时间复杂度都得到了较好的改善。 展开更多
关键词 深度置信网络 受限玻尔兹曼机 线性修正单元
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部 意见反馈