李春晓:可解释人工智能(XAI)元年——XAI在金融领域中的应用实践
工智能的核心,即让机器代替人来学习数据,利用其一定程度上超越人类的学习、分析、推理能力,做出复杂的逻辑判断。随着人工智能技术的不断发展,机器学习的模型越来越复杂、模型精度越来越高,但模型的可解释性,即其透明度,却越来越低。换言之,以人类的常识去理解机器学习模型的判断逻辑变得愈发困难。因而,机器学习模型的精度和可解释性,形成了一对此消彼长的矛盾。比如在反洗钱、反欺诈等领域,为了达到较高的预测精度要求,银行里逐步使用复杂的黑盒模型(如XGBoost、DNN等),更替了传统规则型算法,取代原有的评分卡、逻辑回归