研究目的
提出一种基于深度卷积神经网络和结构张量的分割框架(CNN-STSF),用于从正常及病变光学相干断层扫描图像中全自动分割多达八个视网膜层。
研究成果
所提出的CNN-STSF方法在从OCT扫描图像中提取视网膜各层结构时具有极强的鲁棒性,且不受视网膜病变类型影响。这对临床医生极具价值,因为视网膜层结构是反映人眼视网膜状况的关键要素,而人工提取这些结构耗时极长。CNN-STSF的核心优势在于其能自动完成视网膜分层提取,且该特性与视网膜病变类型无关,因而全球临床均可广泛应用。
研究不足
在配备8GB内存且无专用图形处理单元(GPU)的英特尔酷睿i7 CPU上,训练AlexNet的计算时间约为10小时40分钟。这种训练速度缓慢是由于我们为减少计算量而选择的批量大小所致。
1:实验设计与方法选择:
该框架通过候选扫描计算相干张量以提取视网膜层,随后利用基于云的深度卷积神经网络(CNN)模型对代表这些层的像素进行进一步分类,该CNN模型使用1200个视网膜层图像块训练而成。
2:样本选择与数据来源:
该框架在来自不同公开数据集及本地武装部队眼科研究所(AFIO)数据集的超过39000张视网膜OCT扫描图像上进行了测试和验证。
3:实验设备与材料清单:
配备8GB内存的英特尔酷睿i7 CPU,无专用图形处理单元(GPU)。
4:实验流程与操作步骤:
首先将OCT图像加载到系统中,仅保留高贡献强度通道以供后续处理。随后将扫描图像归一化为标准分辨率720×1280。采用二维自适应低通维纳滤波器抑制噪声,使用二阶结构张量进行分割。
5:数据分析方法:
通过计算提取层与多位专家分级标记的手动层注释之间的绝对差异来确定准确率。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容