设计应用

基于FPGA的卷积神经网络并行加速器设计

作者:王 婷,陈斌岳,张福海
发布日期:2021-03-02
来源:2021年电子技术应用第2期

0 引言

    随着人工智能的快速发展,卷积神经网络越来越受到人们的关注。由于它的高适应性和出色的识别能力,它已被广泛应用于分类和识别、目标检测、目标跟踪等领域[1]。与传统算法相比,CNN的计算复杂度要高得多,并且通用CPU不再能够满足计算需求。目前,主要解决方案是使用GPU进行CNN计算。尽管GPU在并行计算中具有自然优势,但在成本和功耗方面存在很大的缺点。卷积神经网络推理过程的实现占用空间大,计算能耗大[2],无法满足终端系统的CNN计算要求。FPGA具有强大的并行处理功能,灵活的可配置功能以及超低功耗,使其成为CNN实现平台的理想选择。FPGA的可重配置特性适合于变化的神经网络网络结构。因此,许多研究人员已经研究了使用FPGA实现CNN加速的方法[3]。本文参考了Google提出的轻量级网络MobileNet结构[4],并通过并行处理和流水线结构在FPGA上设计了高速CNN系统,并将其与CPU和GPU的实现进行了比较。




本文详细内容请下载:http://www.chinaaet.com/resource/share/2000003393




作者信息:

王  婷,陈斌岳,张福海

(南开大学 电子信息与光学工程学院,天津300350)

此内容为AET网站原创,未经授权禁止转载。
并行计算 卷积神经网络 加速器 流水线
Baidu
map