聊一聊可解释的反欺诈AI
2022-06-06 11:05:07来源:数世咨询
近年来,人工智能飞速发展,并作为强大的创新工具广泛应用于各行各业的无数用例中。然而,巨大的责任通常需要巨大的能力。多亏了AI和机器学习,反欺诈技术变得愈加精确并且比以往发展地更加快速。实时的评分技术可以使商业领导立即分辨出欺诈行为。然而,AI-ML驱动决策的使用也引起了对透明度的关注。并且,当ML模型出现在高风险环境中时,对可解释性的需求也就出现了。
随着由机器制定的关键决策的数量不断增加,可解释性和可理解性也变得越来越重要。技术研究员Tim Miller表示:可理解性是人类能够理解决策原因的程度。因此,发展ML模型的可解释性是至关重要的,它有助于可信任自动化解决方案的制定。
开发人员、消费者以及领导者都应该了解防诈骗决策的意义和过程。但是参数稍微多一些的ML模型对大部分人来说是都难以理解的。然而,可解释AI研究社区一再声明:由于可理解性工具的发展,黑盒模型不再是黑盒。在这些工具的帮助下,用户能够理解并更加信任这些用来做出重要决策的ML模型。
事物的SHAPSHAP (SHapley Additive exPlanations) 是如今最为常用的模型不可知论解释工具之一。它从合作博弈中计算Sharply值,均匀分担特征的影响。当我们基于表格数据并使用集成方法来打击欺诈时,SHAP的TreeExplainer算法提供了在多项式时间里获取的局部解释的机会。使用这种工具,仅有近似值也是可行的。与基于神经网络的解释相比,这是一个巨大的进展。
白盒通常是指计算欺诈程度分值的规则引擎。就本质而言,黑盒和白盒得出的结果不同,因为黑盒是根据机器从数据中学习的内容得出结果,而白盒是根据预定义的规则来得出分值。我们可以根据这些差异来双向发展。例如,根据黑盒模型发现的欺诈环来调整规则。
黑盒测试与SHAP结合,可以帮助我们理解该模型的全局行为,并揭示该模型用于检测欺诈活动的主要特征。同时,也可以揭示该模型中的不良偏差。例如,某个模型可能会歧视特定的人口统计数据。它可以通过全局模型解释来检测此类情况,从而防止不准确预测的出现。
此外,它还可以帮助我们理解模型做出的单个预测。在ML模型调试的过程中,数据科学工作者可以独立地观察每个预测,并以此来解释它。它的特征贡献可以帮助我们察觉该模型正在做什么,我们可以从这些输入中进行进一步的开发。通过利用SHAP,最终用户不仅可以获得模型的基本特征,还可以了解每个特征(在哪个方向)是如何影响模型输出欺诈概率的。
置信系数最后,在SHAP的帮助下,通过获取对成功模式的信任,置信可以从客户那里获得。一般来说,如果我们理解一个产品是如何运行的,那么我们就会对它更加有信心。人们不喜欢自己不理解的东西。在解释工具的帮助下,我们可以查看黑盒,更好地理解和信任它。并且,通过理解模型,我们还可以对它进行不断的改进。
可解释的增强器(EBM)是使用SHAP梯度增强ML模型的一个替代方案。这是InterpretML(微软的人工智能公司)的旗舰产品,是一个所谓的玻璃盒子。玻璃盒子这个名字来源于这样一个事实:由于它的结构,它的本质是可解释的。根据原始文档,“EBM通常与最先进的黑盒模型一样准确,同时还保持完全的可解释性。虽然EBM的训练速度比其他现代算法慢,但它在预测时,却非常的紧凑和快速。”局部可解释的模型——模型不可知解释(LIME)也是一个可以用来进行黑盒解释的好工具。然而,它更受非结构化数据模型的欢迎。
通过利用上述工具以及透明的数据点,组织可以放心地做出决策。所有的利益相关者必须知道他们的工具是如何得出最佳结果的。了解黑盒ML以及与之相结合的各种技术可以帮助组织更好地了解它们是如何得出结果,从而帮助实现业务目标的。
点评对于人来类说,未知的往往是可怕的,更是不可信任的。AI-ML驱动决策的算法模型正如一个“黑盒”,我们只能了解结构,却无法洞察其运行原理,更无法判断其给出结果的可靠性。尤其是在防欺诈领域这种高风险环境中,AI及ML技术的应用变得更加困难。而可解释性工具的引入,使得“黑盒”逐渐变得透明,很大程度上打消了用户的怀疑与担忧,同时也为“黑盒”本身的发展创造了条件。