为什么改革,怎么改革?
1998年第26届国际精算师代表大会颁布“国际精算教育指南”之后,在该教育指南的推动下,各个国家的精算组织在基础教育部分已经基本上达成一致。国际精算协会(IAA)的大纲已经经历了变化发展,其他成员组织也需要进行变革。
北美精算师协会自2018年7月1号起实施了新一轮的改革,用VEE数理统计(MathematicalStatistics)取代了VEE 统计(Applied Statistics)学分;VEE公司财务(Corporate Finance)学分增加会计内容;ExamC新加入短期保险定价和准备金,一些知识点移动到其他考试中;FM考试调整了利息理论内容,增加投资的内容,减少金融衍生产品的内容。而大家最关心的,可能是两门新考试:新的Statistics for Risk Modeling考试,加入广义线性模型、决策树等内容;新的Predictive Analytics考试(必须先考过SRM),强化案例分析,用电脑软件分析数据集,汇报并且交流研究成果。结合全新升级的精算实践基础FAP 模块,引入互动场景,讲解如何把精算技术运用到实际工作中,通过8个module和期中评估(IA)、期末评估(FA),将不同地区的考生在工作和学习中碰到的案例(SOA咨询和援引了很多顶级精算雇主的实际问题)整合起来,用大量的资料和例子锻炼考生用精算的思维方式和工作方法处理实际工作中遇到的问题,贯穿整个精算控制循环,便于考生自我评估对知识点的理解。
也即,SOA在准精ASA阶段,通过在高级阶段课程:预测分析PA考试和精算实践基础FAP 模块改革把电脑编程和大数据分析纳入考试。这是因为预测分析和机器学习建模越来越多地被运用到精算各个领域,传统回归分析和时间序列分析模块,已经无法满足未来精算师们预测分析的能力要求。
图1:SOA最新的ASA课程体系
英国精算师协会每7-10年会对其考试大纲,考试内容和考试方法进行回顾与必要的更新。2016年英国精算师协会会教育委员会决定最新考试从2019年春季考试开始实施。与IFoA的CPD计划对接,改革后新的课程主要包括三个部分:精算师资格认证考试;精算师职业道德和工作经验。
图2:IFoA的Qualification Structure(来源:Executive Summary:IFoA Curriculum Review)
与精算改革直接对应的,一个方面是在核心统计(Core Statistics)中丰富GLM和引入机器学习内容,另一个方面是精算实践模块,包含有三个主要模块:精算实务(CP1)、建模实践(CP2)和交流实践(CP3)。精算实务(CP1)模块包括两份纸质考试;建模实践(CP2)模块包括两个三小时的计算机考试。这些内容覆盖了数据建模、工作文档、分析方法、与精算受众的沟通和数据分析全流程。
总体上看,SOA、IFOA等机构的精算改革思路是一致的,编程实践与机器学习成为重要的内容。【中国精算师协会也一直在为恢复考试做不懈的艰苦努力,作为国际精算协会的会员单位,也必将因循这些改革思路,把编程实践、机器学习内容纳入新的考试大纲中 。】
如何在统计精算与机器学习中取舍
在非寿险精算中,往往需要对数据进行建模、拟合以辅助定价和风险决策。为什么要建模?主要是为了推断总体,说直接点是为了预测或者外推。举个简单例子,你的样本库中有劳斯莱斯等各种车型,有红黄蓝绿各种车色,但唯独没有黑色的劳斯莱斯,现在你要对黑色的劳斯莱斯定价,怎么办?这就需要模型外推。
经历了单项分析法、最小偏差法到经典回归模型的发展,经典回归模型形式简洁,预测和外推非常方便,可解释性极好。然而,其严格的假设条件在精算中通常难以得到满足:
第一,要求因变量服从正态分布在很多情况下是不现实的,譬如索赔频率和续保率等通常不会服从正态分布,特别是费用和赔付数据往往具有右偏、厚尾的特点,具有生存时间特性。
第二,方差齐性假定不现实。假设因变量的方差不依赖于均值,然而实际数据分布的误差项方差往往是其均值的函数,幂律效应就是说明这种现象。
第三,模型关系设定正确,假设费率因子通过加法关系对因变量产生影响,但在很多情况下,费率因子之间可能是一种乘法关系,而非加法关系。
因变量与解释变量之间不一定是线性关系,这不是限制经典回归模型的主要问题,通过对原有模型进行适当的变换处理,可以模拟非线性关系。这时的分布也不是传统意义上的正态分布,方差齐性也可能变化,事实上,正是这些变换的思想,逐渐催生了广义线性模型。
分类费率厘定技术发展到了广义线性模型,已经趋于完善;基于指数分布族,这为预测因变量的变动信息提供了更大的灵活性,并且保留了良好的统计性质,如统计量的渐进正态性;引入三个层次的检验:总体拟合优度、方差分析、系数显著性检验,约束回归与检验。建立了完整的学科体系。实现了预测精度与可解释性的取舍。
基于第一条假设,指数分布族外,考虑复合分布,截断分布、(a,b,1)分布类扩展得到Tweedie分布类的广义线性模型;基于第三条假定,连接函数之外引入半参信息,得到广义可加模型;至于第二条,考虑随机效应、重复观测效应和方差异质性,可以把Bayes信度调整引入得到特殊的广义线性混合模型。
至此,模型设定越来越精致,但是函数形式直观、解释性方面已经慢慢滞后了。而且,模型的预测精度提升已经越来越有限,精算师不断尝试新的风险因子、费率因子,不断尝试新的函数分布设定,终究很难取得关键性突破。因为基于广义线性模型框架体系构建的推断统计体系,本身是一套很严格的体系,很多尝试会因为无法通过显著性检验而被剔除。另一方面,费率因子之间错综复杂的联系,很难保证非随机,产生了各种各样的问题,例如低估了显著性,误删了重要费率因子,学者通过收缩回归技术、约束回归检验,岭回归、LASSO回归来进行处理。也有学者尝试绕开这一套显著性检验体系。
还有一些学者提出其他思路,例如通过模型的整合,构建专家赋权混合模型(Mixture of Experts Models)。广义线性混合模型与广义可加模型之后,模型越来越复杂,但在精度等方面的进展已经能看见瓶颈,另一方面,可解释性却越来越差。既然已经看到了传统统计框架下的围墙,业界和学界开始思考是否可以越狱,跳出到费歇尔推断统计体系之外来研究精算问题。
模型最核心的是建模因子库。早期建模最大的问题是缺乏合适的费率因子,但随着数据科学的发展,费率因子的抽取越来越完善。例如,利用人体固有的生理特性(如指纹、脸象、虹膜等)、行为特征(如笔迹、语音声纹、步态等),通过获取个体的生理或非生理信号,包括面部表情、语音、心率、行为和生理信号等,结合社交关系数据提取、LBS定位信息、浏览及点击行为等数据,加上物联网技术、区块链的应用,使得风险因子提取日益广泛。
例如,截至2019年5月底,平安拥有8.8亿人大数据,26,000+总体字段,3300+平均字段,7.3亿次信用查询。平安的建模因子库覆盖305+因子,其中案件187个:包括出险时间、单双方事故等;车78个:包括拒赔次数等;人40个:包括驾驶员出险次数等。全部因子、历史一年数据,SAS系统每月初自动跑批,效率极大化。成功跑批上半年500万+因子数据。平安旗下金融壹账通智能闪赔系统,通过提炼属性逻辑数据及因子数据,并通过业务规则输入与自动机器学习,搭建了车型配置、配件价格、工时价格、维修逻辑、损失逻辑五大风险管控引擎,模型中包含了700多个风险因子,组合为定损逻辑、损失逻辑等多个风险类型。同样,德国安联财产保险运用机器学习、大数据分析等技术开发了新一代承保定价系统,通过数据收集与清理建立定价所需的基础数据库,通过复杂的精算与统计模型计算出基础费率,再结合市场定价与客户分层确定面向不同客群的市场价格,最后将定价推向市场并通过持续动态的指标监测不断调整定价。该系统的风险因子输入超过800个。
既然绕开了传统的费歇尔推断体系,机器学习建模空间得到了极大的提升。
前面非寿险精算分析的基础还是统计那一套统计推断理论体系,通过显著性检验对变量进行筛选,或者通过约束回归、收缩回归、岭回归、LASSO回归来限制变量组合,保留合适的变量。事实上,鉴于真实世界各种错综复杂的联系,总有某种程度之间的依赖关系,如果某些变量的确解释能力有限,也可以让它的重要性度量(例如权重)自动收缩为足够小,间接实现变量选取(准确说是抑制)功能。
人工神经网络的主要思路就是如此,既然没有显著性约束,那就把所有变量放进来,利用组合函数来汇总输入变量的特征,再通过转移函数投射到合适的定义域中,实现非线性变换的目的。其中,组合函数和转移函数合称为激活函数,像一个“黑匣子”把输入和输出联系起来。激活函数的输出通过输出函数投射到输出层。输出层如果是定量变量就对应回归问题,若是定性(属性)变量就对应分类问题。按照具体函数形式的不同划分为不同的类型:如二值函数,S形函数,双曲正切函数,也可以采用光滑函数或者径向基函数。信息通过权实现分布式存储,由此具有很高的容错性——即使10%的神经网络失效,仍能照常运作。其并行结构具有并行处理能力,可以分布式处理,具有高度的互连性和规则性。按照权值更新的性质可以分为死记式学习、δ学习、自组织学习、Hebbian学习和相近学习。对于回归问题,对应的输出函数为恒等函数;分类问题的输出层往往有K个,对应分类的K个维度,相应的输出函数为恒等函数或者softmax函数。
图3:ANN模型
树分类器的许多术语来自概念学习系统(Concept Learning System,CLS)的研究。分类回归树CART(Classificationand Regression Trees)模型将预测空间递归地划分为若干子集,通过一系列的规则(或者选择)将数据分类,并能根据落入相同节点的路径上的规则集来推测相同的结果。划分是由与每个内部节点相关的分支规则(Splitting Rules)来确定的,通过从根节点到叶节点的移动,所有样本被唯一地划分到叶节点所对应的区间,被解释变量在该节点上的条件分布也即被确定。分类树是非参的,也是非线性的,其判别准则以树形图或一组if-then语句形式描述,判别分析用一组线性方程组表述,结果易于表达和解释。从剖分面的角度来说,用分类树比Logistic效果好的原因是,对于给定的一个样本所包含的观测,分类树模型的剖分面极不光滑,可以极大程度地拟合样本数据,但是有很大的外推风险,运用到其他样本时拟合效果就差,需要动态调整模型。而且,分类树模型建模中整枝不当容易造成过拟合。而Logistic则是使用光滑的曲线作为区分的标准,只能对样本作大致区分,但是具有扩展性,能较好地预测其他的样本数据。以分类回归树为例,通过不断的对样本空间进行剖分,总能以足够高的精度来拟合样本空间,机器学习都很难回避这一点。事实上,即使是传统的回归模型、广义线性模型,我们也可以使用虚拟变量,通过“虚拟变量陷阱”,实现虚高的拟合精度。一个很极端的例子,如果有100个样本点,如果引入99个虚拟变量,总能100%实现拟合。也能达到机器学习工具的拟合优度。分类树理想的结果是使得树中每一个叶节点要么是纯节点(节点内部样本的被解释变量属于同一个类),要么很小(节点内部所含样本个数小于事先给定的n值)。分类树基于样本空间进行分类,在从众多的预测变量中选择这个最佳分组变量时,由于数据中有噪声和孤立点,许多分枝反映的是训练数据中的异常。好的整枝可以消弱噪声的影响,但消弱孤立点影响的作用要小得多,孤立点的存在很可能会影响判别函数进而影响分类树的结构,但是模型本身对识别孤立点有很高的势。在Logistic模型中,因为推断基于大数定理,噪点影响很小。而孤立点可以将回归曲线拉向自身,使回归方程产生偏移,利用总量来估计系数,在样本量较大时可以消弱孤立点的影响。
图4:CART模型
以神经网络为代表的机器学习体系放弃了费歇尔体系,我们没法像回归一样通过显著性水平来剔除多余的变量;其次,数据之间的相关或者伪相关(spurious regressions, Yule, 1926)导致回归中几乎不会出现引入变量的回归系数为0这种现象,人工神经网络也不例外,尽管不显著的系数理论上与零没有显著差异,但在神经网络模型中无法判别显著性,这才是问题的所在。在预测中,这种问题带来的不利影响更大:如果说回归中我们可以构造强外生性检验(strong exogeneity)、超外生性(superexogeneity, 参见Ericsson)来作为预测模型的理论保障,但在数据挖掘中,即使是在这最后的“黑匣子”面前也显得苍白无力。需要指出的是,理论上过多的隐藏单元可以通过一些规范条件或者说正则条件训练来使多余的权收缩到零,关键问题真正的样本空间我们往往无法知晓,我们总是强加一些假定。但遗憾的是,这种变换处理不是唯一的,就算我们用理论求得一个唯一的最优变换,也只是对特定样本说的,一旦外推用于新的样本问题就来了;最后一点考虑是,低维空间是高维空间的特例,就算我们能在低维空间得到唯一最优变换,一旦放到高维空间那就不唯一了,正交虽然能使多余纬度上的测度变为零测度集,但作为斜交的特例,正交并不能解释所有。构建神经网络(ANN)、支持向量机(SVM)、分类回归树(CART)、DBSCAN模型,针对传统单独数据挖掘工具预测精度有限的问题,整合bagging、boosting和构建随机森林,并根据历史数据回代,进行关键费率因子,进行指标管理和赋权体系的动态更新。相比规则引擎,机器学习模型更能捕获风险特征不太突出或不太普遍的隐蔽欺诈群体。而不同特性的机器学习算法,可以针对性地应用至不同的风险场景。例如,平安公司应用“GBDT梯度提升树”、“RF随机森林”、“Xgboost”等相对复杂一些的集成模型;针对需要对多个不同因子的因果关系构建推理模型的场景(如配件工时关系模型),可以应用“PGM贝叶斯概率图模型”。近年,一些新现的机器学习算法,在工业应用中,也取得了傲人的成绩,成为替代目前流行的集成模型(如GBDT)的趋势之一,包括“gcForest深度森林”和“mGBDT级联梯度提升树”等,这些算法模型,在表征能力方面,相比传统模型更有优势。和以往梯度提升树(Gradient Boosted Tree, GBT)相比,LightGBM的优势在于:提高了精确度(二阶导);提高了速度(算法优化、系统优化);支持并行学习。LightGBM算法还包含了两个全新的方法:基于梯度的单边取样和特征捆绑。相比传统机器学习,LightGBM算法等脱离了依靠增加解释变量个数提高多因素模型解释力的传统研究框架,在车险索赔概率预测上具有高准确率和高稳健性。根据下图所示的AUC和Accuracy比较可知:无论对准确率和召回率的平衡能力,还是对0-1标签正确分类的能力,LightGBM对该不平衡数据集的分类效果显著强于前人所使用的其他算法。根据我们的研究,鲁棒性和泛化能力方面,LightGBM在维持高准确率的条件下,仍能保持较低的波动性;无论是预测的准确率,或者算法的鲁棒性,LightGBM对该类型数据集的分类效果明显优于其他算法。
图5:常见模型的准确率和AUC值比较:GLM(广义线性模型)、ANN(人工神经网络)、GDBT(梯度决策树)、SVM(支持向量机)和LightGBM
深度学习模型相比机器学习模型,在数据利用和精度提升方面,更有优势,但解释性较差,同样适合不重解释性的业务场景。常见的方法是:通过“auto-encode自编码器”或“受限玻尔兹曼机”进行无标签数据的预训练,构建DNN深度神经网络模型,再通过少量标签数据进行模型参数的微调,从而发挥数据的最大效能。从实践而看,深度学习模型相比传统机器学习模型,识别的精准度方面可提高20%-50%。
而且,机器学习也在不断弥补其短板,例如,通过直方图遍历算法,不管特征值是否为0,那么稀疏矩阵问题就解决了。机器学习也逐渐跳出“黑盒子”的限制,强调解释能力(树状特征本身具有极好的解释性),LightGBM等很多算法对连续变量可以直接生成重要性评分,还能基于特征总分裂次数和基于特征总信息增益对所有特征进行重要性分析。至少从预测准确度(样本内推)指标看,机器学习工具已经全面超越了传统的统计精算模型工具。
当ANN、CART、SVM小试锋芒的时候,统计精算圈还很淡定,因为15%的预测精度改善以牺牲85%的解释性为代价的;当这些改良的工具、算法逐渐渗透到业界应用时,统计精算圈已经没有那么淡定了:虽然基础工具没有颠覆性成果,但额外的15%的精度提升足以撼动精算定价的地位。特别是前沿精算杂志开始大批量录用机器学习的时候,精算学者们也要停下来审视这种颠覆性的力量。
偏倚-方差分解:假定基于二次损失函数,在处,回归方程的期望预测误差方差可以分解为扰动项方差、偏倚(估计均值与真值之间的差异)的平方和预测统计量的方差:
为了实现好的预测效果,大家更倾向于引入复杂的模型,例如,部分模型越复杂,一般来说,会使偏倚的平方越小,但是方差部分会越大。这是个两难问题,估计量无偏或者近似(渐进)无偏了,精度又下去了。这是卡住经典统计与统计学习(机器学习)咽喉处的骨头。丑小鸭定理似乎也验证了:很难找到绝对占优的模型。
而且,训练集上过好的表现,往往在样本外推时出现灾难性的后果。学者尝试从过拟合(overfitting)的角度来分析。尝试通过交叉验证(CV)、ROC曲线、约登指数(Youden index )、early stopping、数据集扩增(Data augmentation)、正则化(Regularization)、Dropout等防止过拟合。当然不同的数据挖掘工具也有独创的控制过拟合的机制,例如LightGBM的Leaf-wise对于防止过拟合有用,可以防止因子重要性评分高估效应,类似于回归中的收缩估计。
细心的读者会发现,前面所谓偏倚-方差分解公式,是基于二次损失函数来构建和推导的。统计精算中,目标函数构建时,除了传统的二次损失函数外,还有绝对损失函数,0-1损失,这么多的统计与机器学习工具,基本的分析框架还是在这些损失函数的目标函数下进行优化。但即使拿掉二次损失函数,换成其他的,基本结论也会是相似的,也存在类似的分解公式,也存在类似的取舍问题。这也终将为制约机器学习的进一步发展埋下伏笔。
如何在代码编程与轻代码、无代码编程中取舍
高级编程语言经历着从面向过程程序设计(Procedure-Oriented Programming,简记为POP)到面向对象程序设计(Object Oriented Programming,简记为OOP)的转变。前者通过设计一个算法就可以解决特定问题,典型代表是Pascal、C。而后者将现实世界的事物抽象成对象,对象是类的集合,将对象作为程序的基本单元,将程序和数据封装其中,帮助人们实现对现实世界的抽象与数字建模。面向对象程序设计的典型代表包括java、c++、c#、python、Go(又称Golang),Smalltalk、Eiffel、PHP语言。面向对象的3个特征:封装、继承、多态,通过封装技术,消息机制可以像搭积木的一样快速开发出一个全新的系统。提高软件的重用性、灵活性和扩展性。
精算中常用的编程语言也在从面向过程程序设计到面向对象程序设计的转变或者覆盖中。曾经的统计精算编程非常轻巧,容易上手。
例如R语言,主要面向统计计算,而且代码量一般不会很大,使用面向过程的编程方法就可以很好地完成编程的任务。面向过程来写程序的时候,每一次的需求变化,都需要对原始代码进行修改,从而不仅增加了复杂度,越来越难以维护海量代码的项目,所以后来R语言一口气引入了可以实现OOP范式的四套标准:S3、S4、RC、R6。
再比如SAS,SAS 8版以后支持OOP, SAS组件语言(SCL)程序控制语言同样具有高级语言的一些特性,支持面向对像的程序设计。通过SCL扩展SAS/AF组件的内置功能。而SAS/AF本身也是面向对象的编程环境,利用交互式开发环境和一组面向对象的丰富的类,可以派生子类、为客户定制特殊需求,可以充分利用SAS/AF应用程序的可移植性与SAS软件的其他产品的特点进行快速开发和部署。此外SAS/AF软件还为开发人员提供一个集成的编程开发环境和应用测试。用于开发强大的企业级应用程序。
当然,除了SAS/AF,在SAS系统里还提供了另外一种应用开发的解决方案——SAS/EIS,SAS/EIS具有便利快捷的应用开发环境,能为企业用户快速的开发企业应用程序。而且,结合应用开发(RAD)环境,开发人员可以利用SAS/AF软件创建SAS/EIS,并且可以通过SAS/AF轻松地扩展这些应用程序,为客户端提供更加强大的应用,例如可以使不同的用户在不同硬件平台上使用,使终端用户可以在项目设计完成前看到并体验。
另一个软件stata 既具有结构化的控制语句,又有面向对象编程的特性。貌似软件都在向面向对象编程发展,事实上,我们也应该看到另一个趋势。SPSS软件通过菜单操作记录程序代码可以重复执行;R语言的姊妹篇S语言通过S-PLUS实现了类似的菜单操作与编程的混合模式。值得一提的是,除了面向对象,SAS/AF还是一款基于图形用户界面(GISs)的程序开发模块,交互式设计工具大幅减少开发时间,可以通过定制可视化的窗口设计应用程序,整个过程都可以通过具有可视化的框架基础的方式完成,如图形显示设备和图形用户界面。通过过程“流”,充分利用在线分析过程(OLAP)、数据访问、数据管理、Web集成和一系列的分析功能。同时可以在SAS软件提供的所有平台上进行应用程序开发与部署。
而且,SAS还升级了早期的数据挖掘过程方法论SEMMA(Sample, Explore, Modify, Model, Assess),建立了两个完全基于流的模块,SAS/EG,SAS/EM,使广大数据挖掘从业者不需要编程也能进行模型部署和开发。
图6:SAS/EM 过程流程图示例
而另一个软件,Clementine更是把这种过程“流”的思想用到极致,通过处理各种不同类型的数据,整合出色、广泛的数据挖掘技术,为企业解决各种商务数据挖掘问题。Clementine后来被SPSS收购,成为SAS/EM最强有力的竞争对手,而SPSS在被IBM收购后,Clementine升级为Modeler。当今市场上主流的数据挖掘平台,包括几大主流数据库服务商提供的数据挖掘模块,都能看到这种基于流的模型架构思路。
也就是说,数据挖掘又在朝轻代码编程甚至无代码编程的方向前进。
无代码/低代码可以让开发人员使用最少的编码知识,来快速开发应用程序。它可以在图形界面中,使用可视化建模的方式,来组装和配置应用程序。开发人员可以直接跳过所有的基础架构,只关注于使用代码来实现业务逻辑。
无代码编程主要分为两类:一种是用于UI 设计和网站设计的在线的拖拽式构建工具或者编辑器;另一种是用于编写业务逻辑的流编辑器,如前面所述,通过流编程的方式来编写业务代码。
这些编程效率很高,节省时间和开发成本;有限的 Bug,安全性有保障;易用(取决于设计),维护成本低。但仍然需要编程技能;自定义能力受限;集成受限,可扩展性受限。但无论如何,已经在人类编程历史进程中迈开了重要的一步。
2017年10月教育部印发《中小学综合实践活动课程指导纲要》,指出,“发展实践创新意识和审美意识,提高创意实现能力。通过信息技术的学习实践,提高利用信息技术进行分析和解决问题的能力以及数字化产品的设计与制作能力。”8岁的少儿便开始学习编程,当然目前少儿编程教学主要是Scratch或是仿Scratch的图形化编程教学,以培养兴趣、锻炼思维为主。
同样,智能音箱的出现(例如小度在家、小爱同学IoT设备控制),以及各种形态的智能机器人、金融科技、保险科技平台,已经能把人类的语言转化为计算机可执行指令,通过语音实现生活助手、智能家控等功能,为用户提供更好的AI体验。把计算机语言变成自然语言(NLP),能有效降低编程和机器学习的门槛,让软件开发和应用开发简单起来。同时,因为不需要计算机语言,能让更多的人都能参与这个编程开发当中。无代码终将成为之后软件开发的一个趋势和核心的竞争力。能够“一句话的事儿”,是否还需要大家从底层编程?
如何实施基于编程实践、机器学习的精算教学
精算学生规模较大的培养机构,自然需要考虑精算学生的出口问题,考虑学生参加相关考试认证问题。也需要提供配套的教学和服务。例如,构建自己的精算考试系统,依托于各主流精算师协会考试内容和课程核心信息为基础,提供试题分发、智能评阅、考生以往信息查询等服务,为学生参加中国精算师协会、SOA、英国精算师协会、CAS等考试搭建起一个信息化的高速对接桥梁。
在实践层面上,要实现课程的衔接,考试的配套。对外经济贸易大学早期尝试建设的精算师考试辅助机考系统如下图所示:
图7:精算师考试辅助机考系统示意图
需要建立计算机辅助精算师考试平台
(1)将相应的试题库(包括往年的真题库和自建题库)上传到考试平台,建立相应的维护体系。主要包括:
①建设试卷分发系统
根据精算师行业的要求,设计相应的考试题库,为同一考场的不同学生自动分发不同的考试内容。从而摆脱以往的一个考场一份卷子,不能全面掌握学生能力的不足现状。能够更为准确的了解学生学习状况和优势。
②建设智能评卷系统
根据学生的不同试卷,实现试卷的智能评阅,快速给出成绩。此系统中包括客观题智能判断、主观题智能评审和R语言设计智能评阅等。
③建设成绩追溯系统
根据学生每年的考试情况,指导老师可以及时查看和追溯不同阶段对于精算师课程项目的优势与不足,从而对学生做出更有针对性的指导和教学。
图8:精算师考试辅助机考系统层图
(2)精算师考试辅助机考系统组成和效果:
系统组成 | 技术名称 | 效果说明 |
1、系统所有文字页面 2、静态图片 3、表格 | HTML | 出版在线的文档,其中包含了标题、文本、表格、列表以及照片等内容。 通过超链接检索在线的信息。 为获取远程服务而设计表单,可用于检索信息、定购产品等。 在文档中直接包含电子表格、视频剪辑、声音剪辑以及其他的一些应用。 |
1、网站动态菜单 2、VI标志 | JS、FLASH | 实现在一个Web页面中链接多个对象 与Web客户交互作用。 从而可以开发客户端的应用程序等。 |
1、轻常更新网页数据 2、动态数据 | JAVA EE (Spring+Hibernate) | JAVA的运行速度快,而且它为使用HTML,脚本和Tomcat服务器组件构建Web应用程序提供了一个框架.可以能过将脚本嵌入HTML页内来创建JAVA文档.当用户请求得到一个JAVA时,服务器便执行嵌入在页内的脚本,而且将脚本的输出作为HTML的组成部分也包括在内,从而任何浏览器都可以浏览这个页。由于java语言的开源性,从而提供了相应的安全、未来的扩展性,可以轻松的存取各种数据库,适用与各种浏览器 |
数据库 | MySQL | MySQL 数据库(数据存储使用加密存储技术) |
当然,执行过程也遇到很大的阻力,除了精算实践的考核问题、题库的tex环境问题,我们也遇到其他问题,例如,即使固定随机种子,计算机跑出来的估计结果仍然可能出现不太一致现象。我们很难通过验算结果来判定编程操作的重要性。纯粹的机考变得不现实,还需要评阅老师人工介入。还需要更多的业界和学界朋友联合起来,共同搭建教学环境。
谢远涛,男,对外经济贸易大学保险学院副院长,统计与精算学系教授、博导。毕业于中国人民大学统计学院风险管理与精算学专业,获经济学博士。美国Boston University联合培养博士(国家公派),获CAPP博士后证书。
美国风险与保险协会会员,中华预防医学会健康保险专业委员会常委,中国工业与应用数学学会金融数学与金融工程专委会精算与保险青年委员、注册金融风险管理师协会(ICFRM)学术委员会专家委员。
主持有国家自科基金项目、国家社科基金项目、教育部人文社科项目多项。
在IME,JCP, RCR, NAJEF等 SSCI、SCI杂志发表论文20篇。在《统计研究》、《北京大学学报》、《北京师范大学学报》、《金融研究》等CSSCI杂志发表论文40余篇。
文章来源公众号:中国精算师协会
已发送
关注宏景SOA官方微信
版权所有: 深圳市泛特宏景咨询有限公司, 粤ICP备10094233号 | 400-110-8128
免责声明:本网站的部分内容来自于互联网,网站中所引用的相关公司LOGO、商标、版权归相关公司、法人及原作者所有
前往“发现”-“看一看”浏览“朋友在看”