收藏本站
收藏 | 手机打开
二维码
手机客户端打开本文

基于深度神经网络的人体行为识别研究

徐洋洋  
【摘要】:人体的行为识别是计算机视觉领域的一个重要问题,有着极大的应用范围。比如人机交互、安全防护、多媒体的视频理解和虚拟现实等。伴随着大规模人体行为数据集的获得和硬件计算能力的进步,以深度神经网络为代表的深度学习技术有了长足发展,在一些计算机视觉问题上取得了以往传统方法所不能达到的性能,然而现有方法仍有一些的局限。结合实际应用需求,本文针对人体行为识别中如下两个方向进行展开:(1)基于RGB视频的二维人体行为识别研究;(2)基于骨架坐标点云的三维人体行为识别研究。主要的研究工作和贡献如下:(1)基于RGB视频的二维人体行为识别研究针对2D行为视频中存在时间和空间两个维度的信息,设计了一种二维卷积神经网络(Convolution Neural Networks,CNN)和双流的长短时记忆模型(Long-Short Term Memory,LSTM)相结合的方法,能够同时对时间信息和空间信息进行建模。针对RGB视频中背景信息过于冗杂、人体运动信息不够凸显的问题,设计了一种全新的跨时空注意力机制,该机制经过训练之后,可以对一个行为视频中不同时间帧和同一帧上不同的位置进行关注,能够学习到对行为类别价值大时空位置。为了探索两种长短时记忆模型的输出特征,同时为了获得更鲁棒的分类特征,设计了一种联合优化层来训练分类器。并在几个常用数据集上验证了所提算法的有效性。(2)基于骨架坐标的三维人体行为识别研究针对骨架坐标点云所呈现的数据形态,设计了一个有效且可扩展的残差一维卷积神经网络作为基础网络,并在此基础上扩展成四个子网络,以从不同的方面来探索骨架序列的特征。给定一个骨架序列,空间信息被编码到每一帧的骨架关节坐标中,由多帧构成了时序信息。受限于骨架序列的表示形式,二维卷积神经网络不能直接用于处理骨架信息。因此,我们使用一维卷积层作为基础层,每个子网可以提取出具有区分性的特征。我们的第一个子网是双流网络用于探索时间和空间信息。第二个是肢体分离网络,可以获得细粒度的空间特征和整体时间特征。第三个是关注力网络,此网络上的注意力机制可以学习到关键的视频帧和神经网络中重要的特征通道。最后一个子网是帧差网络,主要连续帧之间的对应关节位置变化。四个子网独立训练,测试的时候将得分集成在一起,集成方法的关键问题是每个子网需要有一定的准确性并且子网之间应该具有多样性。每个子网共享一个基网络,子网之间的结构或输出的差异保证了多样性。实验结果表明,我们的模型在三个广泛使用的数据集上达到了很高的识别率,其中包括最大的3D骨架行为识别数据集(NTURGB+D dataset,2016)。


知网文化
【相似文献】
中国期刊全文数据库 前16条
1 富倩;;人体行为识别研究[J];信息与电脑(理论版);2017年24期
2 赵雄伟;;人体行为特征融合与行为识别的分析[J];无线互联科技;2017年12期
3 雷庆;陈锻生;李绍滋;;复杂场景下的人体行为识别研究新进展[J];计算机科学;2014年12期
4 鲁统伟;任莹;;基于光流的人体行为识别[J];电脑知识与技术;2013年07期
5 王新旭;;基于视觉的人体行为识别研究[J];中国新通信;2012年21期
6 刘相滨,向坚持,王胜春;人行为识别与理解研究探讨[J];计算机与现代化;2004年12期
7 ;城市形象设计与建设(连载)——第十章 城市行为识别[J];经济工作导刊;2000年01期
8 岳兴录,陈素贤;企业形象策划的行为识别和视觉识别[J];辽宁经济;1996年06期
9 张伟东;陈峰;徐文立;杜友田;;基于阶层多观测模型的多人行为识别[J];清华大学学报(自然科学版)网络.预览;2009年07期
10 田国会;尹建芹;韩旭;于静;;一种基于关节点信息的人体行为识别新方法[J];机器人;2014年03期
11 罗会兰;王婵娟;卢飞;;视频行为识别综述[J];通信学报;2018年06期
12 谭程午;;基于分层特征的群体行为识别[J];信息通信;2017年02期
13 周书仁;曹思思;蔡碧野;;基于改进极限学习机算法的行为识别[J];计算机工程与科学;2017年09期
14 衡霞;王忠民;;基于手机加速度传感器的人体行为识别[J];西安邮电大学学报;2014年06期
15 张飞燕;李俊峰;沈军民;;基于梯度和光流统计特性的人体行为识别[J];光电子·激光;2015年08期
16 刘景;邓莎莎;童晶;陈正鸣;;基于人计算的小鼠行为识别[J];计算机应用;2014年02期
中国重要会议论文全文数据库 前10条
1 齐娟;陈益强;刘军发;;基于多模信息感知与融合的行为识别[A];第18届全国多媒体学术会议(NCMT2009)、第5届全国人机交互学术会议(CHCI2009)、第5届全国普适计算学术会议(PCC2009)论文集[C];2009年
2 连儒东;李佳;;人体行为识别分析技术在检察监督中的应用及构建[A];深化依法治国实践背景下的检察权运行——第十四届国家高级检察官论坛论文集[C];2018年
3 安国成;罗志强;李洪研;;改进运动历史图的异常行为识别算法[A];第八届中国智能交通年会优秀论文集——智能交通与安全[C];2013年
4 何靖芸;周洪钧;;示教学习:一种端到端的机器人行为识别及生成的模仿学习方法[A];第36届中国控制会议论文集(E)[C];2017年
5 王忠民;张新平;梁琛;;基于滑动窗口异常数据提取的跌倒行为监测方法[A];2016年全国通信软件学术会议程序册与交流文集[C];2016年
6 刘威;李石坚;潘纲;;uRecorder:基于位置的社会行为自动日志[A];第18届全国多媒体学术会议(NCMT2009)、第5届全国人机交互学术会议(CHCI2009)、第5届全国普适计算学术会议(PCC2009)论文集[C];2009年
7 数采创新项目组;;“algMelt聚类融合算法”模型在零售客户数采异常行为识别中的探索与应用[A];中国烟草学会2015年度优秀论文汇编[C];2015年
8 郝明轩;刘巍;;核安全文化评价与工程实践[A];中国核学会核能动力学会核电质量保证专业委员会第十届年会暨学术报告会论文专集[C];2010年
9 屈立笳;苏红;涂刚;;基于安全事件关联分析的反垃圾邮件系统的研究[A];全国网络与信息安全技术研讨会’2004论文集[C];2004年
10 方帅;曹洋;王浩;;视频监控中的行为识别[A];2007中国控制与决策学术年会论文集[C];2007年
中国博士学位论文全文数据库 前10条
1 田艺;基于多样本与零样本学习的人体行为识别研究[D];北京交通大学;2018年
2 丁文文;基于三维骨架的时空表示与人体行为识别[D];西安电子科技大学;2017年
3 杨延华;潜在信息融合的多任务人体行为识别[D];西安电子科技大学;2017年
4 齐镗泉;基于深度学习的行为识别与旅游场景分类关键技术研究[D];华南理工大学;2017年
5 牛晓鹏;普适计算环境下人体行为识别及情景感知研究[D];北京科技大学;2018年
6 陈华锋;视频人体行为识别关键技术研究[D];武汉大学;2017年
7 刘祎楠;基于空时信息的行为识别方法研究[D];电子科技大学;2018年
8 梁锐;视频语义分析若干问题研究[D];电子科技大学;2018年
9 康飞龙;基于机器学习的多目标猪只状态与个体行为识别研究[D];内蒙古农业大学;2018年
10 许万茹;复杂人体行为分析的时空上下文方法研究[D];北京交通大学;2018年
中国硕士学位论文全文数据库 前10条
1 李枭楠;基于加速度传感器的行为识别方法[D];西安科技大学;2017年
2 耿家利;渔船轨迹大数据存储优化与行为识别技术研究[D];杭州电子科技大学;2018年
3 赵晓叶;基于深度信息的人体行为识别方法研究[D];江南大学;2018年
4 昝宝锋;基于深度图和线性表示模型的人体行为识别研究[D];江南大学;2018年
5 徐海洋;基于深度信息和骨骼信息的人体行为识别算法研究[D];江南大学;2018年
6 徐洋洋;基于深度神经网络的人体行为识别研究[D];广西师范大学;2018年
7 曹思思;基于多层次LBP算法及极限学习机算法的行为识别研究[D];长沙理工大学;2017年
8 金科;基于深度视频的3D人体行为识别算法研究[D];江南大学;2018年
9 陆晴;基于深度学习的异常行为识别算法研究[D];哈尔滨工业大学;2018年
10 刘波;基于图像处理的人体行为识别研究[D];西华大学;2018年
中国重要报纸全文数据库 前10条
1 甘肃省武威市凉州区第一幼儿园 刘桂娥;从幼儿行为识别教育误区[N];中国教育报;2018年
2 东林;行为识别新技术让监控没有“死角”[N];人民公安报;2007年
3 素杰;形象就是影响力[N];中国包装报;2004年
4 本报记者 马爱平;动一动就认清你?机器说可以[N];科技日报;2017年
5 国家邮政局公众服务部;明确经营理念 推进形象工程[N];中国邮政报;2002年
6 何正坤;安全文化与企业CI战略[N];中华合作时报;2003年
7 国家税务总局法规司 张学瑞;加强税收违法行为识别的研究[N];中国税务报;2013年
8 符蓉通讯员 刘潇;外经贸职院引入大学新形象系统工程[N];湖南日报;2007年
9 农发行鹿邑支行党支部书记 行长 刘永贞;发行形象与文化落地农[N];周口日报;2007年
10 李晨光;导入CIS要注意什么?[N];河北经济日报;2001年
 快捷付款方式  订购知网充值卡  订购热线  帮助中心
  • 400-819-9993
  • 010-62982499
  • 010-62783978