设计应用

基于FPGA的多源数据融合目标检测的研究与实现

作者:韩德强,闫钊,杨淇善
发布日期:2025-11-12
来源:电子技术应用

引言

随着人工智能技术的突飞猛进,人工智能相关的应用已经和人们的生活息息相关。机器人以及自动驾驶的相关应用和研究也越来越频繁地出现在公众视角之内。然而,随着应用场景日益复杂,人们需要更加优秀的环境感知算法。环境感知算法不仅直接影响着机器人和自动驾驶运行的性能,更是在复杂环境下作出正确决策的基础[1]。

感知算法的目的是从环境中获得物体的位置、类别和运动趋势等信息。与传统的二维感知算法相比,三维的环境感知算法能够更加准确地获得真实环境的信息,满足高精度检测的需求[2]。同时,随着各类算法的不断成熟与硬件性能的快速发展,多种传感器的协同工作已经成为研究者提升感知系统整体性能的一种重要手段[3]。基于摄像头的目标检测技术随着深度学习技术的发展和应用,在多数场景下取得了很理想的检测效果[4]。然而,基于摄像头的成像的原理,普通单目摄像头缺少对三维空间中深度信息的精确感知,使用深度相机或者采用多目相机的方式可以获得近距离精度较高的深度信息,但结果也会受到运动和距离等因素的影响;毫米波雷达虽然能直接获取目标的相对速度与距离,但是检测范围较小,无法覆盖远距离的目标[5]。相比之下,激光雷达可以通过主动扫描获得高精度的点云数据,不仅能精确捕捉物体表面信息,相较于其他传感器还具备较强的抗干扰能力和不同环境的适应能力[6]。但是,点云数据存在无序性,不能在空间中均匀地分布[7],处理难度较高。同时由于激光雷达技术起步较晚,相关算法尚未完全成熟,其在目标分类等关键环节仍存在不足之处。

鉴于此,采用多源信息融合的策略,将激光雷达与摄像头的数据有机结合,通过图像检测来补充点云数据中难以捕捉的细节信息,实现信息的互补,是当前三维目标检测最重要的研究方向[8]。


本文详细内容请下载:

http://www.chinaaet.com/resource/share/2000006835


作者信息:

韩德强,闫钊,杨淇善

(北京工业大学 计算机学院,北京 100124)


subscribe.jpg

此内容为AET网站原创,未经授权禁止转载。
激光雷达 三维目标检测 FPGA 嵌入式 多传感器融合
Baidu
map