方法

优点

缺点

案例

通过有效降维的 XAI方法

模型体量较小,更容易理解,且不容易发生过拟合。

在关键特征的提取上, 有可能出现遗漏现象, 因此对于特异化的分类 识别,性能不高。

Zhao等人(2016)通过对有代表性的 案例进行有监督学习,实现对 同一期大量肺癌患者的 分类任务 [25] 。

通过特征重要性 实现XAI

XAI通过特征重要性的提取,不仅可以解释本质特征, 还可以反映它们对临床 解释的相对重要性。

数值权重要么不容易理解,要么可能被误解。

Shrikumar等人采用深度学习网络的反向传播机制,测量输入的输出梯度,以特征的重要性输出 [26] 。

基于注意力机制(Attention)的XAI

可以通过全局或者部分的 关注特征,实现对AI算法 的解析,使得临床用户 对于该模型的信任度和 容忍度提高。

过量或者错误的重要关注信息提取,对于使用者的 判断和理解上会造成困扰,且使得用户可能倾向于 忽略也可能是关键的 非突出显示区域。(可解释的滞后性)

Kwan 等人(2019)提出了一种基于RetainVis的直观可解释的心力衰竭 和白内障风险预测模型,通过突出 序列中的图片序列特征,来提高 深度学习模型的可解释性,在这些 位置中,这些输入特征可以影响 预测结果 [41] 。

基于类激活映射(Class activation mapping, CAM)的XAI

可以有效的在图片上展示 重要特征区域。

对于其它形式的 数据作用不明显。

Lee等人(2019)基于CAM,提出了 一种用于从小数据集中检测 急性颅内出血的XAI算法,这是 使用CAM最著名的研究之一 [42] 。

通过知识提炼和 规则提取实现XAI

XAI方法依赖于知识提炼和规则提取,在理论上是 更稳定的模型,对复杂临床数据的汇总表示可以直观地为临床最终用户提供可解释的结果。

如果这些XAI结果的解释不能被非专业的临床终端使用者直观地理解, 那么这些表述可能会使 终端使用者更难理解。

Xiao等人(2018)建立了一个深度学习模型,通过将电子病历事件转化为 内嵌的临床原则来描述患者的一般 情况,从而实现对再入院与患者 可能的风险因素之间的动态关联 研究 [43] 。

通过呈现替代物 实现XAI

该方法的泛化性较强, 适用于大多数场景。

该模型仅仅是对AI模型的模糊解释,且如果过于复杂或过于抽象,可能会影响 临床医生的理解。

Meldo等人(2020)采用LIME, 从分割的肺部可疑对象的特殊 特征表示中选择重要特征 [33] 。

基于GAN (Generative Adversarial Networks)的XAI

跨模态翻译有助于加深 医学文本和图像之间的 相互理解。

该方法的使用在图片增强过程中产生的偏差, 用以产生结果的偏差。

Yuhao等人(2022)提出一种基于 病理描述的Gan图片合成和生成 结构(Patho-GAN),并实现了DR 图片增强和识别任务 [40] 。