推广TrustAI可信分析:通过提升数据质量来增强在ERNIE模型下性能( 二 )


开源代码:https://github.com/chihkuanyeh/Representer_Point_Selection
参考链接:https://zhuanlan.zhihu.com/p/114461143
0.1.2 基于梯度的相似度方法(Grad-Cosin, Grad-Dot)论文:Input Similarity from the Neural Network Perspective https://proceedings.neurips.cc/paper/2019/hash/c61f571dbd2fb949d3fe5ae1608dd48b-Abstract.html
https://proceedings.neurips.cc/paper/2019/file/c61f571dbd2fb949d3fe5ae1608dd48b-Paper.pdf
在许多应用中,了解模型做出特定预测的原因可能与预测的准确性一样重要 。然而,大型现代数据集的最高精度通常是通过甚至专家都难以解释的复杂模型来实现的,例如集成或深度学习模型,这在准确性和可解释性之间造成了矛盾 。作为回应,最近提出了各种方法来帮助用户解释复杂模型的预测,但通常不清楚这些方法是如何相关的,以及何时一种方法优于另一种方法 。为了解决这个问题,我们提出了一个解释预测的统一框架,SHAP(SHapley Additive exPlanations) 。SHAP 为每个特征分配一个特定预测的重要性值 。其新颖的组件包括:(1) 识别一类新的加性特征重要性度量,以及 (2) 理论结果表明该类中存在一个具有一组理想属性的唯一解 。新类统一了六种现有方法,值得注意的是,该类中最近的几种方法缺乏建议的理想属性 。基于这种统一的见解,我们提出了新的方法,这些方法显示出比以前的方法更好的计算性能和/或与人类直觉更好的一致性 。
0.1.3 基于特征的相似度方法(Feature-Cosin, Feature-Dot, Feature-Euc)论文:An Empirical Comparison of Instance Attribution Methods for NLPhttps://arxiv.org/abs/2104.04128
https://github.com/successar/instance_attributions_NLP
深度模型的广泛采用激发了对解释网络输出和促进模型调试的方法的迫切需求 。实例归因方法构成了通过检索(可能)导致特定预测的训练实例来实现这些目标的一种方法 。影响函数(IF;Koh 和 Liang 2017)通过量化扰动单个列车实例对特定测试预测的影响,提供了实现这一目标的机制 。然而,即使逼近 IF 在计算上也是昂贵的,在许多情况下可能会令人望而却步 。更简单的方法(例如,检索与给定测试点最相似的训练示例)可能具有可比性吗?在这项工作中,我们评估不同潜在实例归因在训练样本重要性方面的一致性程度 。我们发现,简单的检索方法产生的训练实例与通过基于梯度的方法(例如 IF)识别的训练实例不同,但仍然表现出与更复杂的归因方法相似的理想特征
0.2 特征级证据分析算法简介参考链接 https://blog.csdn.net/wxc971231/article/details/121184091
0.2.1 可解释性之积分梯度算法(Integrated Gradients)论文:IntegratedGraients: Axiomatic Attribution for Deep Networks, Mukund Sundararajan et al. 2017https://arxiv.org/abs/1703.01365
我们研究将深度网络的预测归因于其输入特征的问题,这是之前由其他几项工作研究过的问题 。我们确定了归因方法应该满足的两个基本公理——敏感性和实现不变性 。我们表明,大多数已知的归因方法都不满足它们,我们认为这是这些方法的根本弱点 。我们使用这些公理来指导一种称为集成梯度的新归因方法的设计 。我们的方法不需要对原始网络进行修改,实现起来非常简单;它只需要对标准梯度运算符进行几次调用 。我们将这种方法应用于几个图像模型、几个文本模型和一个化学模型,展示了它调试网络、从网络中提取规则的能力
一种神经网络的可视化方法:积分梯度(Integrated Gradients),它首先在论文《Gradients of Counterfactuals》中提出,后来《Axiomatic Attribution for Deep Networks》再次介绍了它,两篇论文作者都是一样的,内容也大体上相同,后一篇相对来说更易懂一些,如果要读原论文的话,建议大家优先读后一篇 。当然,它已经是2016~2017年间的工作了,“新颖”说的是它思路上的创新有趣,而不是指最近发表 。所谓可视化,简单来说就是对于给定的输入x以及模型F(x),我们想办法指出x的哪些分量对模型的决策有重要影响,或者说对x各个分量的重要性做个排序,用专业的话术来说那就是“归因” 。一个朴素的思路是直接使用梯度?xF(x)来作为x各个分量的重要性指标,而积分梯度是对它的改进

经验总结扩展阅读