设计应用

基于多尺度注意力融合网络的胃癌病理图像分割方法*

作者:张婷1,秦涵书1,赵若璇2
发布日期:2023-09-22
来源:电子技术应用

0 引言

胃癌是全球第5位的常见癌症和第4位的癌症死亡原因[1],临床上目前主要根据胃镜活检和医生人工经验来判断切片病灶发展情况。临床人工病理筛查需要花费专业病理医生大量的时间,且由于临床经验的差异和医疗资源的限制,也存在一定的漏诊和误诊比率。近年来,随着深度学习在计算机视觉领域的成功应用,计算机辅助检测在医学上的应用也越来越广泛。

基于深度学习的医用图像分割方法可以有效提取病灶目标区域,辅助医生决策,提升诊断效率和准确性。这些方法主要包括基于经典的全卷积神经网络(Fully Convolution Networks ,FCN),以及UNet、UNet++系列和DeepLab系列等基于编解码的分割网络[2-7]。常用的基于编解码的病理图像分割网络基本流程如图1所示。以胃癌病灶图像为例,首先输入获取的病理图像,经过图像预处理(预处理阶段一般包括图像增强和图像增广等),之后送到编码解码网络,进行图像特征提取和图像恢复,对于网络直接预测的分割结果可适当增加部分后处理操作,包括形态学后处理等降噪方式来提升分割结果的精确性。其中特征提取网络主要由卷积层、下采样模块和激活函数等组成,图像恢复模块是对特征提取后的特征图进行重点区域捕捉定位和大小恢复,得到与输入大小相对应的输出图像,主要包括上采样模块、特征融合模块和激活函数。最后输出经过反向传播计算预测结果与标注值之间的误差,通过梯度下降设置合适的学习率迭代训练,得到损失函数极小值以优化预测结果。



本文详细内容请下载:https://www.chinaaet.com/resource/share/2000005636




作者信息:

张婷1,秦涵书1,赵若璇2

(1.重庆医科大学附属第一医院 信息中心,重庆 400016;2.重庆大学 光电技术与系统教育部重点实验室,重庆 400044)

微信图片_20210517164139.jpg

此内容为AET网站原创,未经授权禁止转载。
病理图像 图像分割 注意力融合
Baidu
map