基于深度学习的点云场景语义分割方法研究
【摘要】:当今,越来越多的智能应用场景都离不开三维场景的语义分割技术,如在无人驾驶环境下,汽车对周围场景的理解能力直接影响其定位和避障的能力。本文为实现基于深度学习的点云场景语义分割方法,学习了激光点云场景数据的有关理论和知识,深入研究了深度神经网络理论和基于点云的场景分割网络Point Net,总结出该网络在局部特征提取方面的缺陷,并提出相应的改进方案,实验证明本文提出的改进方法提升了原网络在语义分割任务中的准确率。本文所做具体工作如下:1.针对Point Net网络提取点云局部特征能力不足的问题。本文受二维图像中SIFT特征描述符的启发,设计出由三维点云特征描述网络Point SIFT建立的多尺度邻域感知模块,该模块摒弃了传统特征算子的参数阈值调试过程,能端到端的自我学习到具备方向感知和尺度适应的点云场景局部特征。本文以此为基础改进Point Net网络,即将Point SIFT提取的局部特征与Point Net网络的输出特征多次进行全连接,最终获得每个点的分类分数从而实现语义分割。实验结果表明,本文算法对比原网络确有着更高的准确率。2.针对室外点云大场景语义分割的问题。本文设计出一套点云场景的数据采集、处理、场景制作再到语义分割的实验方案,即首先使用地面激光扫描仪对学校图书馆附近的区域进行多站点采集,并对原始点云数据进行精简、去噪等预处理,从中选取每两视角场景中重叠区域较多的建筑,对其使用基于采样一致性和迭代最近点的自动配准方法,从而获得室外大场景点云数据。然后以Semantic3D数据集作为样本,训练出基于Point Net++的室外点云场景分割模型。最后调用该模型对已重建的场景进行语义分割,并对结果进行了可视化分析。