Joseph Milana PhD 如果没有信用风险建模的话我们就没有办法做借贷了。我们看美国过去的十五年借贷情况,最大的一块就是抵押贷款。另外,信用卡的份额已经达到了一万亿美金,这是有史以来的第一次。 信用风险已经回到了2009年大萧条之前的水平,尤其是在美国发生的大萧条。那个时候的逾期贷款比例非常高,当然我们并没有风险建模,那个时候有很多风险评估原则都被大家放弃了,因此当时有大量的不良贷款产生,这就是我们说的逆向选择,这里面有一些固有原因。关于金融架构有很多书,比如说《大空头》,讲了大萧条背后的很多原因,幸运的是我们之后有了好的风险评估机制,不良贷款又回到了可以被管理的水平。 FICO信用风险建模简史 讲到美国的信用风险以及其他国家的信用风险,我们要介绍一下FICO公司的历史。FICO在1956年的时候创立的时候只是一个咨询公司,那个时候专门做运营研究,创始人之前在SRI工作。在1958年,FICO发明了信用评分。在七十年代,美国国会推出了公平信用评分法案,法规要求进行贷款评估的时候必须确保信息是准确的,还有另外一个特点就是如果做出拒绝的决策,这个决策必须是可被解释的。1974年的时候推出了平等信用机会法案,必须要公平,给予信贷的时候必须要根据能力评估,不能根據性别或者说种族来评估。FICO在1975年的时候开发了第一个系统来预测现有客户的信用风险。基于他们现在的行为,比如说使用信用卡的行为习惯,对人的信用风险做出评估。1987年FICO公司上市。他们想创建一种商业解决方案,利用神经网络或者说大脑的工作机制来帮助解决问题。在1989年的时候FICO推出了自己的FICO信用评分机制,一个通用型的信用评估机制的首次亮相。现在这个机制已经成为美国通用的为消费者提供贷款的评分机制。 再来说说跟FICO有密切关系的HNC。1992年的时候HNC推出了自己的"猎鹰"软件,用来探测信用卡的违约可能,会评估每个交易,每个信用卡的行为或者说信用卡用户的行为,然后评估信用卡是否是被偷的信用卡,或者说有问题的信用卡。解决方案推广的很快,很快就在行业当中普遍使用。HNC1995年上市,并在1997年推出"PMAX"软件,使用交易触发机制来对每个信用卡账户进行信用评估。在这之前FICO的解决方案基本上提供了一种月度监控机制,在1997年的解决方案里,在每个交易点上,每次和客户接触的时候都会对客户进行信用风险评估。2001年,myFico.com网站上线。这是一个面向消费者的网站,让每个用户了解自己的FICO分数是多少,提供了信用分数的透明性,帮助消费者很好地管理自己的信用分数。 2002年,FICO收购了HNC。2003年FACTA法案通过,强制让消费者可以了解信用部门提供的信用分数,有了更强的信用透明性,让消费者可以看到自己的信用评分。2009年,FICO改成了现在的名字。目前,全球有25亿信用卡受到了FICO评级的保护。 MyFico可以让消费者很好地了解模型里面讲的是什么,输入的是什么,信用分数是基于什么的,比如说基于信用历史。这里提供一个个性化的分数,会考量个人自己的信用分数,让你有机会想一下如何调整自己的行为,从而提高自己的分数,消费者就可以更好地评估风险。 透明性能够让消费者了解信用提供方是怎么样做决策的,上面讲到的政府法规,极大地影响了使用模型的类型。比如说七十年代通过的法案,不管什么时候想要做拒绝的决定,必须要做出解释才行。对于FCRA法案来说,建立了一个线性模型,可以用自己的算法,通过这种线性模式解释为什么做出这样一个负面信用的决策。还有一个法案叫做ECOA法案,不能使用某些信息,比如说刚才说的性别、种族以及宗教信息等等。这些因素不能植入到模型里面,这些信息必须全部刨除出去,但是可以使用邮局邮编信息,可以去将其他维度加入模型。这里面不要求做欺诈检测,可以用一个非线性的模型,而通过FCRA必须解释负面的批贷决策,这里面涉及到一些非常相关的因素。还有一些额外的法律要求,比如说评分必须要根据年龄的变化进行变化,也就是说信贷申请人随着年龄的变化必须要及时更新评分,这里面我们也提供了一些解决方案,比如保序回归。 下面很快讲一下刚才所说的怎么样解释这些负面的评分决策,或者说我们打了不好的分,怎么进行解释。 人们比较关注模型是怎么样来解释的。FICO刚开始设立了一个非常清楚的方法,解释之前说的线性模型,里面有输入的变量,还有相关的一些概率值。所以必须要把这个函数和概率链接起来。你去建模的时候必须考虑到逻辑回归跟概率的关系。为什么一个人会得到不太好的分数,必须要看在这里面变量是如何产生的,什么样的变量或者说因素会贡献负的变量,或者说得分比较低的变量。 首先要去掉这个尺度,因为这是一个线性的模型,在这里不太很必要去掉尺度,但是对于要求解的神经网络来说还是非常重要的。然后减去平均值,然后重新来评估你的评分。分析哪个变量给线性模型贡献的变量是最大的,这里面有可能两个变量是有相互关系的,比如说有收入和成本两个变量,你就知道你的利润等于收入减成本,如果只看收入或者只看成本的话,评估结果可能就是非常不全面的,所以解决方案就是你把所有有意义的可以解释的变量都放入子集里面,根据子集的总量对总模型贡献来进行排序。要构建一个比较有意义的或者是可解释的子集。这是一个关于线性模式的解释。 用模型评估风险,无处不在 对于前面说的非线性的模型,神经网络怎么做的,方法就和线性模型不太一样,神经网络并非依赖于线性的模型,也不是说隐藏节点有很多层,可以是单层的。在这里面输出模型,必须要决定输入量是什么,有两种方法来决定:第一种就是把每个子集的变量全部设置为平均值,如果所有都是平均值的话,新的量要怎么处理,要把新的变量和平均值进行比较,这样的子集会对总分产生一个非常大的变化,可以根据总分变化来排名,这是我们今天用得比较多的模型;或者也可以用单独的模型,每次可以一次删除一个子集,之后构建一个单独的模型,然后再根据单独的模型进行评分,然后再来看在子集里面,哪个变量会产生最大的对于模型变化量的最大的贡献,然后对此进行分析。 我们之前讲了信用风险,除此之外还有其他领域的风险应用,最早是在保险方面用得最多。在七八十年代分析客户风险,你可以知道保险公司在这里面有非常多的应用,有一个人写了一本书《醉汉走路如何影响我们的生活》非常好地描述了风险应用。再比如说电信网络方面,怎么样减少风险、评估风险,电信网络会不会有一些故障等等,根据一些标签很少的数据集,我们用无监督的学习方法来评估里面的风险,所以说在这里面必须要构建一个比较好的模型。我们现在也用人工智能去解决,比如说网络安全等等方面的问题,比如说黑客攻击等等,必须要做一些渗透测试以及怎么从网络当中提取信息,这些都是我们做风险建模的时候可以做非常多贡献的地方。技术问题非常有意思,有的时候数据没有做标签,你不知道网络是否被入侵了,我们要做平衡,有标签和无标签,有监督和无监督必须要有一个平衡。我们一直讲深度学习,有一个朋友领导了一个团队,他们在社交媒体上很有名,他們的很多视频、音频或者说图像,有的时候一些内容不太健康,黄色内容或者说暴力内容,他们的挑战在于说要用人工智能来识别这些视频,一旦视频上线的话,这会影响到他们的声望,因此他们用深度学习机制来识别这些视频图像。他们建立了这样一个数据库,数据库里面都是不健康的上传内容,利用数据库来对人工智能进行训练。 * 作者系美国费埃哲(FICO)原首席科学家;大数据进行风险决策领域的世界级领军人物。拥有超过20年的分析,模型,数据挖掘,机器学习的经验。早年作为核心建模成员,开发了美国费埃哲(FICO)的Falcon反欺诈系统(目前在北美市场有接近100%占有率)。拥有美国费埃哲12年履职经历,曾历任研发中心高级副总裁(领导了年销量超过1亿美元的反欺诈类产品线的研发和产品化);首席科学家(领导费埃哲研发部,推动新兴领域基于数据模型进行决策管理的创新,建立了费埃哲的核心知识产权库)等核心职位。并在信用风险,反欺诈,营销,数据传输等领域拥有超过20项核心技术专利。Milana拥有康奈尔大学(Cornell University)的本科,以及纽约州立大学石溪分校(Stony Brook University)的博士学位。 ● 本文由智慧金融研究院、拍拍贷授权;原题方向为"风险信用模型的历史和展望",为最大程度保障文本精华、原意,以及阅读需要,本刊仅做题目及内容分层进行编辑。