研究目的
开发一种可学习的、基于深度神经网络且针对视网膜图像配准优化的描述符,并将其性能与手工设计描述符进行比较。
研究成果
基于视网膜图像块训练的深度神经网络特征描述符性能优于二进制描述符(BRISK、FREAK),但不及浮点手工设计描述符(SIFT、SURF、KAZE)。采用局部响应归一化(LRN)并针对困难样本训练的CNN+全连接架构表现更优。未来工作应聚焦于改进数据集增强方法及纳入通用图像块以提升性能。
研究不足
数据集的局限性可能影响性能,因为在数据增强过程中并未模拟真实图像中的所有几何畸变。所学描述符的表现未能超越SIFT和SURF等顶级手工设计方法,表明训练和数据集构建方面仍有改进空间。
1:实验设计与方法选择:
采用连体网络架构训练基于深度神经网络的特征描述符,使用对比损失函数和ADAM优化器。比较了多种DNN结构(全连接网络、带局部响应归一化或批量归一化的卷积网络+全连接层)与手工设计描述符(SIFT、SURF、BRISK、FREAK、KAZE)。
2:样本选择与数据来源:
从九个在线视网膜图像数据集(Chase DB、Diaret DB、DTSET1、DTSET2、HRF-base、Messidor1、Messidor2、Messidor3、RODREP)编译训练数据集,初始3153张图像经增强后扩展至11279张。使用含真实点对标注的FIRE数据集进行评估。
3:DTSETHRF-base、MessidorMessidorMessidorRODREP)编译训练数据集,初始3153张图像经增强后扩展至11279张。使用含真实点对标注的FIRE数据集进行评估。
实验设备与材料清单:
3. 实验设备与材料清单:未提及专用设备;采用MATLAB工具箱处理KAZE特征及VLFeat工具包提取SIFT特征。
4:实验流程与操作步骤:
通过多检测器(FAST、Harris、最小特征值、Hessian、BRISK、SURF、SIFT、KAZE)检测关键点,经k均值聚类后裁剪101×101像素图像块。增强操作包括翻转、旋转(最大10度)、投影畸变及缩放。将图像块调整为64×64像素用于训练。生成1700万训练样本(半数相似对/半数非相似对)。分别训练含硬样本与不含硬样本的DNN模型,在FIRE数据集上采用Rank-1指标评估。
5:数据分析方法:
计算描述符间的欧氏距离,排序匹配结果并统计Rank-1性能(首位匹配正确的比例)。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容