分享自:

基于多实例学习的可参考糖尿病视网膜病变检测方法

期刊:scientific reportsDOI:10.1038/s41598-021-93632-8

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


主要作者及机构
该研究的主要作者为Alexandros Papadopoulos、Fotis Topouzis和Anastasios Delopoulos,分别来自希腊亚里士多德塞萨洛尼基大学电气与计算机工程系的信息处理实验室多媒体理解组(Multimedia Understanding Group, Information Processing Laboratory, Department of Electrical and Computer Engineering, Aristotle University of Thessaloniki)和医学院眼科系(Department of Ophthalmology, Aristotle University Medical School)。该研究于2021年发表在期刊Scientific Reports上。

学术背景
糖尿病视网膜病变(Diabetic Retinopathy, DR)是全球范围内导致视力丧失的主要原因之一。尽管该疾病广泛存在,但许多患者缺乏专业的眼科医生和设备来监测病情,导致治疗延迟,进而降低了治疗成功的可能性。为了解决这一问题,研究人员提出了一种基于机器学习的方法,通过自动分析眼底图像来检测可参考的糖尿病视网膜病变(Referable Diabetic Retinopathy, RDR)。该研究的目标是开发一种基于多实例学习(Multiple-Instance Learning, MIL)的机器学习系统,能够从眼底图像中提取局部信息,并通过注意力机制(Attention Mechanism)高效地结合这些信息,从而生成适合分类的图像表示。此外,该方法还能生成热力图(Heatmap),突出显示病变区域,提高模型的可解释性。

详细工作流程
研究包括以下几个主要步骤:

  1. 图像预处理
    由于不同眼底图像的分辨率、光照条件和视网膜盘视角可能不同,研究首先对图像进行预处理。预处理步骤包括:

    • 使用霍夫变换(Hough Transform)估计视网膜盘的中心和半径;
    • 以估计的视网膜盘半径为中心裁剪矩形区域;
    • 将裁剪后的图像调整为统一分辨率(512×512);
    • 减去局部颜色平均值以消除光照差异;
    • 去除视网膜盘外部的5%区域以减少人工边界效应。
      无法通过霍夫变换找到视网膜盘中心的图像将被丢弃。
  2. 图像块提取与编码
    研究采用多实例学习(MIL)的方法,将每张图像视为一组图像块(Patches)。在训练阶段,随机从图像中提取50个图像块;在测试阶段,则在图像上以75%的重叠率进行网格化提取。每个图像块通过一个预训练的ResNet-18模型进行特征提取,生成128维的特征向量。

  3. 注意力机制与分类
    研究采用注意力机制对提取的图像块特征进行加权平均,生成全局图像表示。具体而言,每个图像块的特征向量通过一个两层的全连接网络计算注意力权重,最终加权平均后的特征向量通过一个全连接层输出RDR的概率。该方法不仅能够高效分类,还能生成热力图,显示模型关注的区域。

  4. 数据集与实验
    研究在三个公开的眼底图像数据集上进行了评估:Kaggle-EyePACS、Messidor-2和IDRiD。Kaggle-EyePACS数据集包含88,702张高分辨率图像,Messidor-2数据集包含1,748张图像,IDRiD数据集包含81张带有像素级病变注释的图像。研究使用ROC曲线下面积(AUC)作为主要评估指标,同时计算了模型在高特异性和高灵敏度下的表现。

  5. 热力图生成与评估
    研究利用注意力权重生成热力图,显示模型在分类时关注的图像区域。通过在IDRiD数据集上的实验,验证了热力图与病变区域的相关性。研究计算了注意力权重与病变区域之间的AUC和AUPRC(精确率-召回率曲线下面积),结果显示注意力权重能够有效识别病变区域。

主要结果
1. 分类性能
在Kaggle-EyePACS测试集上,模型在RDR检测任务中的AUC达到0.961,在Messidor-2数据集上的AUC为0.976,表现接近最先进的方法。在IDRiD数据集上,模型生成的热力图与病变区域的AUPRC为0.869,表明注意力机制能够有效识别病变区域。

  1. 热力图评估
    研究通过IDRiD数据集的像素级病变注释,验证了注意力权重与病变区域的相关性。结果显示,注意力权重能够有效预测病变区域的存在,特别是在考虑所有病变类型时,AUC达到0.800。

  2. 非可分级图像的表现
    研究还评估了模型在Kaggle-EyePACS数据集中非可分级图像上的表现,AUC达到0.948,表明模型在处理低质量图像时仍具有较高的分类能力。

结论
该研究提出了一种基于多实例学习和注意力机制的机器学习系统,能够高效地检测可参考的糖尿病视网膜病变,并生成可解释的热力图。实验结果表明,该方法在分类性能上接近最先进的技术,同时能够有效识别病变区域,为眼科医生提供了有价值的辅助工具。此外,该方法在处理低质量图像时也表现出较强的鲁棒性。

研究亮点
1. 创新性方法:首次将多实例学习与注意力机制结合用于糖尿病视网膜病变检测,显著提高了模型的可解释性。
2. 高效分类性能:在多个公开数据集上达到接近最先进的分类性能。
3. 热力图生成:通过注意力机制生成的热力图能够有效识别病变区域,为模型决策提供了直观的解释。
4. 鲁棒性:在处理低质量图像时仍保持较高的分类性能。

其他有价值的内容
研究还探讨了随机图像块提取策略对模型性能的影响,发现该策略不仅加快了训练速度,还通过隐式数据增强提高了模型的泛化能力。此外,研究指出了未来可能的研究方向,如设计适用于小分辨率图像的模型,以及利用像素级病变注释进一步提高模型性能。


这篇研究为糖尿病视网膜病变的自动化检测提供了一种高效且可解释的解决方案,具有重要的临床应用价值。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com