• Stars
    star
    113
  • Rank 310,115 (Top 7 %)
  • Language
    Jupyter Notebook
  • License
    MIT License
  • Created almost 6 years ago
  • Updated over 5 years ago

Reviews

There are no reviews yet. Be the first to send feedback to the community and the maintainers!

Repository Details

第三届融360天机智能金融算法挑战赛-第二题:特征挖掘

算法文档

996.icu

目录

关于比赛

比赛背景

参见比赛官网

最终成绩

数据集下载

链接:https://pan.baidu.com/s/1idFnZW5MnkeMHGCMfsYomQ

提取码:dbka

代码组织方式及执行顺序

project
|
|----数据预处理及特征提取
|           1.data_preprocess.py
|           2.handle_dat_edge.py
|           3.spread_dect.py
|           4.Louvain.py
|----特征选择
|           5.select_symbol.py
|           6.select_app.py
|           7.select_cluster.py
|           8.select_feature_18.py
|----图特征提取
|           9.igraph.py
|----标签传播
|           10.one_step_label.py
|           11.two_step_label.py
|           12.one_spread_label.py
|----特征传播
|           13.in_server.ipynb
|           14.one_step_app.py
|           15.one_step_symbol.py
|           16.one_step_feature_agg.py
|           17.one_step_many_features.ipynb
|----最后的特征工程
|           18.feature_engineer.py
|----调参
|           19.params_tuning_2.ipynb

问题描述

在这里说明是为了达成共识,同时也是为了统一符号表示,后面的讲解都以此为基础。 关于用户特征的数据分为四部分(按照处理的难易程度排序,从易到难):

  • (1)dat_risk
  • (2)dat_symbol
  • (3)dat_app
  • (4)dat_edge

关于用户标签和训练集、验证集、测试集的数据:

  • (1)sample_train(两列: idlabel)
  • (2)valid_id(一列: id)
  • (3)test_id(一列: id)

sample_trainvalid_idtest_idid拼接起来,得到所有的id,数据名称记为all_id, 数据格式为一个28959*1DataFrame.

特征提取

dat_risk

输出为all_id_dat_risk

dat_riskall_id进行内连接:

all_id_dat_risk = pd.merge(all_id, dat_risk, on='id', how='inner')

目的是找出all_id中每一个id的特征,当然有些id可能没有这个特征,在最终的数据上表现为缺失值。

dat_symbol

输出为all_id_dat_symbol

数据描述

如下图所示,以用户id为2的为例,该用户的一级分类为“其他公司类”,二级分类为“其他”;再看用户id为53的,该用户有两个一二级分类。

数据处理

接下来需要把数据进行onehot编码

1.从逗号处拆开

先来看一级分类,把所有的symbol先从逗号处拆分,得到如下形式的数据:

2. 从下划线处拆开

然后把右边这张表的symbol这列里边的每个元素从下划线‘_’处拆开,得到的下划线左边的就是用户的一级分类,右边的就是用户的二级分类

3. 一级分类

可以得到一个所有用户的一级分类的集和: {‘其他公司类’,‘互金公司’,‘贷款类’,…},经过在数据集上处理之后,发现该集合的长度为24,也就是说所有用户的一级分类都是这24中的某一个。

4. 二级分类

类似的方式也可以得到用户的二级分类集和: {‘其他’,‘p2p’,…},长度为30,也就是所有用户的二级分类都是在30个中的一个。

5. 一二级分类

类似的方式可以得到用户的一二级分类,所谓一二级分类,指的是不把上图右边数据的symbol列从下划线处拆开,而是整体作为一个类别,对右边数据的第二列直接取其集和,就可以得到所有的“一二级”分类集和,长度为44。

6. onehot编码

对于每一个id,我们可以得到该id是否包含一级分类、二级分类、一二级分类的每一个类别,可以得到一个长度为24 + 30 + 44 = 98的向量,且该向量的每一个元素都是0或者1。 数据格式如下:除了id该列之外,应该还有98列。

id 酒店 法律 信用卡 ...
22240 0 0 1 ...
28728 0 0 0 ...
... ... ... ... ...

把最终处理得到的数据记为dat_symbol_dummy,该数据的维度为 2266640 * 9999的原因是还加了一列id)。 把all_iddat_symbol_dummy进行内连接,得到all_id_dat_symbol_dummy:

all_id_dat_symbol_dummy = pd.merge(all_id, dat_symbol_dummy, on='id', how='inner')

由于all_id_dat_symbol_dummy中除了id列有98个特征,还是有些多,有些特征可能对于识别违约意义不大,所以需要进行一下特征选择。 把sample_traindat_symbol_dummy进行内连接:

train_dat_symbol_dummy = pd.merge(sample_train, dat_symbol_dummy, on='id', how='inner')

得到一个含有100列的DataFrame, 因为多了一列label,然后基于此数据, 我们利用xgboost对数据进行训练,得到了98个特征的特征重要性,然后选出特征重要性大于0的特征, 一共有28个大于0的,作为我们最后的训练数据。 之所以要在这里进行特征选择而非在把所有的特征组合 之后进行特征选择,主要是基于一种正则化的思想:我们希望这98个特征尽量能够直接对用户是否逾期的 预测产生贡献,而不是在于其他变量进行各种奇怪的组合之后才产生贡献,因为那样就很可能会过拟合。虽然特征 进行组合有时候是会产生一些效果更好的特征,但是也会带来过拟合的风险,这两者需要进行权衡,这里选择特征 重要性大于0的特征也并不是一个很严苛的筛选条件,所以这样做效果应该是会变好的。实际中测试也是如此。 当然,对这98维特征进行各种降维也尝试过,但是效果都不如特征选择效果好。

dat_app

输出为all_id_dat_app

把原始数据集的所有dat_app_1, dat_app_2, …, dat_app_7纵向拼接之后,记拼接好的数据为dat_app.

onehot编码

由于该数据集的含义比较容易理解,进行的onehot过程也比较容易理解,先在所有的dat_app 中找出所有用户可能安装的app, 发现用户可能安装的app数量为28706, 然后我们对用户安装app的情况进行onehot编码,看看用户是否安装了这28706app的每一个, 得到一个长度为28706的向量,且该向量的每个元素的取值都是0或者1.

特征选择

然后类似上面对dat_symbol的处理,采用xgboost,用这些app数据对用户是否违约进行拟合, 以选出重要的app。然后我们发现,特征重要性大于0app还是有很多,有424个。 所以我们需要再把这个筛选条件放得稍微严苛一些,上面我们谈到了预先进行特征选择的目的 是在特征组合带来的效果提升过拟合之间做一个权衡,由于此次进行特征选择之后还是有很多特征, 而这类特征在整个数据集all_id上的缺失率达到了70%,所以我并不希望这个用户app 数据主导了最终数据的特征,所以这里还需要进行一些更严苛的特征选择以降低app类特征的数量。 现在我们面临的权衡来自三个方面:预测性能、过拟合、数据维度。 所以我在对这424个特征重要性大于0的特征进行排序之后(从大到小): 我们对只用前30个特征、前40个特征、、前300个特征分布进行了一次5折交叉验证, 以采用的特征数作为横坐标,5AUC的结果作为纵坐标,画出了一个折线图:

可以看出,从60左右开始,AUC开始有明显的下降趋势,所以选择60个左右的app很可能是全局最优值, 因为这张图的趋势还是比较明显的。最终我选择了特征重要性排在前66的66app作为最终数据的特征。

dat_edge

输出为all_id_dat_edge

把原始数据的dat_edge_1,dat_edge_2,… ,dat_edge_11纵向拼接之后得到dat_edge

术语定义

首先需要定义一些术语方便后续的说明。对于某一个id,以1000035为例,他主动跟一些id联系过, 也就是下面左图所示,同时他也被一些其他id联系过,也就是右边图显示的情况。

称左边图里边的to_id列里的id1000035的儿子,右边from_id列为1000035的父亲。 有时候会该id的把儿子和父亲这两类合并,称为直系亲属。也就是有向图转为无向图的一个过程。 需要提醒的一点是,1000035的每一个儿子可能有多个父亲,当然肯定也包括1000035自己。 有着相同儿子的不同id为彼此的二度联系人,因为他们通过同一个儿子产生了联系,同样地, 有相同父亲的不同id也是彼此的二度联系人,某一个id的孙子或者爷爷也是他的二度联系人。 下面是对一度联系人和二度联系人包含类别的一个简单汇总。


1000035的一度联系人:

  • 1000035的儿子们
  • 1000035的父亲们

1000035的二度联系人:

  • 1000035的孙子们
  • 1000035的爷爷们
  • 与1000035有共同儿子的id
  • 与1000035有共同父亲的id

我们在计算二度联系人的时候主要是为了利用二度联系人的标签信息, 而有标签的信息只存在与sample_train18959id,所以我们后续提到的二度联系人都指 的是属于sample_train['id']这个集和里的id

数据清洗

对于上面这张图的第10行,我对数据进行如下变换:

之后再把所有的数据纵向拼接起来,记为dat_edge_good.

从儿子里提取特征

对于每一个id,以id4452511为例,我们先选出他的儿子的数据:

接下来,开始从这张表里提取特征作为4452511id的最终特征: 对于,由于他可能会给同一个用户进行多次转账,所以按照to_id这列汇总之后,可以得到右面的数据。 记左边的数据为son, 右边的数据为right_son:

right_son = pd.groupby(by='id')['times', 'weight'].sum()
1.总体类
(1)重复率
1 - len(right_son)/len(son)
(2)维度信息
len(son), len(right_son)
(3)用户重复率

来解释以下上图中数据的含义:

  • 第一行,有5个用户在son['to_id']这列数据里出现了1次;
  • 第二行,有1个用户在son['to_id']这列数据里出现了2次;
  • 第三行,有3个用户在son['to_id']这列数据里出现了3次。

然后用上面得到的数据除以他们的和, 也就是5+1+3 = 9,来把频数转换为频率。

2. 联系次数
(1)次数总和
np.sum(right_son['times'])
(2)次数频率统计

对于right_sontimes列,由于数据的特点是,有很多取1,2,…,的数据, 多数情况是一个左偏分布,也就是取10以内的整数的比例比较多,所以为了充分反映原始数据的信息, 除了提取right_son['times']列的分位数之外(下面会提到),还提取了取值为1的次数所占的比例, 取值为2的次数所占的比例,…,取值为9的次数所占的比例。然后取值大于9的次数所占的比例。

(3)次数分位数

对于right_son['times'],提取其最小值,25%分位数,50%分位数,75%分位数,最大值。

(4)次数异常率检测

由于right_son['times']本身更像一个右偏分布,所以不应该用2 σ原则来进行异常检测, 而是应该用非参数的方法来进行异常检测,比如箱线图。所以这里用箱线图检测处right_son['times']过低异常率和过高异常率。以下图为例,过低异常率是指下面的箱线图左边异常点所占的比例 (示例图上没有左边异常点,那么过低异常率则为0),过高异常率是指右边两个异常所占的比例。

3. 联系权重
(1)权重总和
np.sum(right_son['weight'])
(2)权重分位数

提取right_son['weight']的最小值,25%分位数,50%分位数,75%分位数,最大值 ######(3)权重异常率检测 类似次数的异常率检测,得到right_son['weight']过低异常率过高异常率

4. 联系次数权重的趋势检测

先把数据按照date进行汇总,然后按照时间进行排序:

接下来进行趋势检测,取上面排序后的数据,进行差分,依据差分后得到的正负号求和,来判断整体走势。 同时提取关于波动幅度的特征,也就是差分之后取绝对值求和。后来发现日期也就三个月, 所以进行趋势检测的必要性就没那么明显了,但是对于时间更多的数据集,这样的趋势检测还是很有必要的。 所以在此列出。同样地也可以提取出联系权重的趋势变化和波动幅度。

5. 按照日期的汇总

发现时间主要集中在2017-11,2017-12,2018-01之后,我分别统计了这三个月的联系次数和 联系权重占总体的比例

6. 近期动态检测

对最近的一个月的信息进行更加详细的提取,也就是2018-01,提取最近联系人的数量占总 联系人数量的比例。也就是下图红色方框内的to_id列包含的不同的id数, 除以len(son['to_id'].unique())

从父亲里提取特征

对于每一个id,以id4452511为例,我们先选出他的父亲的数据,类似从儿子里提取特征的方法, 从父亲里也可以提取同样的特征。

从一度联系人里提取特征

把儿子和父亲的数据纵向拼接起来,称为直系亲属。然后按照上面的方法从直系亲属数据里提取相 类似的特征,除了有非常小的一部分特征不太一样,其余大部分特征都是类似的,所以就不再赘 述具体的特征提取方法,都是类似与上面的从儿子里提取特征的方法,只是数据源不同而已: 一个是从儿子里提取特征,一个是从父亲里提取特征,一个是从一度联系人(由儿子和父亲组成)里提取特征。

最终对于每一个id,我提取出了173维特征。虽然有些多,但是这部分数据缺失率少,且预 测能力在所有的数据集里最强,所以还是很有价值的特征。

用户关联图的特征提取

中心度类特征

输出为all_id_centrality_df

入度出度总度数中介度接近性等等。 具体的特征概念参考《社会网络分析》刘军 重庆大学出版社 第五章。具体细节请看代码.

Louvain社区聚类

输出为all_id_cluster

利用用户关联数据进行社区发现,把联系紧密的id尽量聚到同一个社区,因为考虑到同一个社区 或者地区的人的违约率会由较大的相似性。

但是由于dat_edge上数据量非常大,达到了2亿多条,无法直接加载到图上(而且一开始我 用的是python包是nexworkx,在众多处理网络图的包中,这个包是一个效率相对较低的包, 后来使用了速度更快的igraph来计算图的其他特征)。所以只能选出一部分用户关联数据, 选区关联数据原则如下,因为我们的核心目标是提取all_id28959id的特征,所以我以 all_id为中心,找出与all_id直接发生关系的联系记录,也就是all_id的儿子们和父亲们, 为了进一步精简数据,我们挑选出了一部分重要的儿子和父亲,也就是下图中id_2, id_6, id_7 这类id。因为id_6all_id中两个不同id的共同儿子,id_7是共同父亲,id_2也是 一个重要的桥梁.

选择了图中红色线的联系记录来进行社区发现,采用的louvain社区聚类算法,聚成了3637个社区, onehot编码之后得到3637个特征,然后和sample_train进行内连接之后,利用xgboost来进行特征选择, 特征重要性大于0的有82个。然后只用这82个特征进行最后的训练和预测。(事实上最终用来进行社区发现 的转账记录还包括了上图中紫色的记录)。

标签传播

一度联系人

输出为one_step_label

事实上all_id里有直接联系的记录非常少,但是一度联系人的标签情况又非常重要,很有参考价值, 所以即使数据缺失率很高,还是把每个id一度联系人的标签信息作为其特征。 下面是提取id44234436的一度联系人的标签特征:

从儿子里提取特征

他的儿子只有一个在sample_train中,所以数据只有一行,但是我们要考虑到数据有多行的情况。 把下面的数据的label列和weight相乘得到weight_label, 然后分别对label列和 weight_label列求和,取平均得到四个特征。

从父亲里提取特征

类似地,我们也可以计算id44234436的父亲的标签信息,可以类似地提取四个特征, 当然他的父亲们可能一个都没有标签,也就是联系他的人一个也没在all_id中。

从一度联系人里提取特征

最后把他的有标签的儿子和有标签的父亲数据合并,作为其直系亲属数据,然后类似地提取四个特征。 最终提取了12个特征,经检测,仅用一度联系人标签的信息对用户违约情况的预测达到了0.6083AUC。 但是在all_id里只有180id的该信息是非缺失的。

二度联系人

输出为two_step_label

前面我们已经定义过什么叫做二度联系人,相比于一度联系人二度联系人的数量就更多了。 二度联系人里里边有标签的数量也就更多了,事实上,二度联系人的标签数据仅有17%的缺失率, 一度联系人标签的数据缺失率则达到了99%以上。

数据描述

二度联系人提取的特征如下: 对于某一个id25478619,其有标签的二度联系人的数据如下所示,

左边第一列是他的二度联系人的id,第二列是该id与中介的联系权重中介与其二度联系人权重的乘积, 得到乘积之后的product,可以作为该id与其二度联系人的联系权重 (后来我发现,在算二度联系人的联系权重前,对联系权重取对数后得到的结果更好)。 然后将上面数据的product列与label相乘,得到product_label,也就是第四列。 接下来,对上面数据的label列和product_label列提取特征。

特征提取

1. 总体类特征(1个特征)
len(id_dat)
2. label列的特征(4个特征)
  • label列等于0的个数
  • label列等于0的比例
  • label列等于1的个数
  • label列等于1的比例
3. product_label列的特征(6个特征)

product_label的最小值,最大值,均值,25%分位数,50%分位数,75%分位数

4. 按照id列汇总之后再重新提一次上面的特征(1+4+6=11个特征)

由于到同一个二度联系人可能有多条途径,所以id_dat里第一列可能有重复值, 按照这一列进行汇总之后再提取跟上面1.2.3步一样的特征。

特征评价

最终提取了1+4+6+11=22个特征 这次提取的特征比一度联系人的特征更加精细,主要是因为二度联系人比较多, 也就是数据的行数比较多,而一度联系人的数据行数就比较少了, 提那么几个特征就基本能概括所有的信息了。 使用上面提取的二度联系人的标签特征来对违约率进行预测,AUC可达0.602, 考虑到数据缺失率比较低,这还是非常难得的。

特别提醒

需要提醒的是,二度联系人一定不能包括自己,因为一旦包括了自己,相当于利用了自己的标签信息, 而只有sample_train上才有标签,一开始没意识到这点的时候,提取的二度联系人标签特征 的数据对是否违约的预测能力居然达到了0.99AUC,这显然是数据泄露了,如下图所示:

比如说我们想要提取id_1的二度联系人的标签特征,id_1id_2相关联,然后id_2id_3 相关联,同时id_2肯定也会和id_1相关联,但是只能利用id_3的标签的信息,而不能用id_1 的标签信息,用了自己标签的信息,然后来预测标签,肯定是不对的。

一度路由

输出为one_spread_label

相当于一度联系人的联系人的标签信息,事实上这和二度联系人的标签特征是很接近的, 但是考虑的角度不太一样,所以还是计算了这一特征,不过最终经过仔细分析,这部分特 征是和第六部分计算的特征高度重合的,所以下面只是简单的解释一下这部分特征的提取方法。 为了尽量避免与第六部分特征的重合,这次我考虑了联系的方向,也就是把它当作有向图 来进行处理,具体地,我们可以分别计算儿子的儿子的特征,儿子的父亲的特征(儿子 的父亲一定不能包括自己),父亲的父亲的特征,父亲的儿子的特征(父亲的儿子一定 不能包括自己)。这类特征的意义在于,我们想知道某一个id的联系人都在跟哪些人联 系,一样地,我们在计算的时候不能把自己的标签信息包括进去了,通过传播之后,我 们可以得到一列权重和一列标签,然后对标签和带权重的标签(带权重的标签也就是把 权重和标签相乘)这两列提取总和平均两个特征。 这样对于儿子的儿子便可以提取出4个特征,最终可以提取出16个特征(还有儿子的父 亲、父亲的父亲、父亲的儿子分别可以计算四个特征)。这部分特征对 与用户是否违约的预测能力为0.625AUC.

特征传播

输出为one_step_feature

特征概述

对于前面第二部分至第六部分的特征提取,我们都是针对all_id28959id来进行提取的, 这次我们还要计算每一个id的一度联系人的这些特征,先把all_id的所有的一度联系人找出来, 大有3173091id,记为whole_id(一个长度为3173091list),然后计算这 3173091id的第二到第六部分的特征。 包括dat_risk, dat_symbol, dat_app, dat_edge以及图上点的中心度类特征。 其中dat_risk不必细说,直接就可以用,dat_symbol我们已经进行过特征选择,只计算 28个关于dat_symbol的特征即可,对于dat_app同理,只用计算66app的特征。对于 dat_edge,进行一次特征选择,最终选了一些重要的特征进行计算,点在图上的中心度也都 直接计算了,把所有的数据拼接在一起得到数据one_step_id_feature_agg, 维度为(3173091*137)

数据描述

然后对于某一个id-456334,我们可以得到如下数据:

右边还有很多列没有展示出来,第一列是id-456334一度联系人,第二列是id-456334与他们的联系权重,剩下的就是每个一度联系人的特征了。

特征提取

然后用第二列weight列与右边剩下的各列算内积,然后除以weight列之和, 也就是把weight作为权重对右边各个特征进行加权平均作为id-456334的特征。

特征评价

用这种方式计算出的特征缺失率非常低,而且仅仅使用该特征来对用户是否违约进行 预测,可以达到0.6462AUC.可以说是非常优秀的特征了。

数据汇总及特征比较

至此我们把计算出的数据进行汇总,我们都计算的特征以及特征描述如下所示:

特征名称 特征描述 特征缺失率 AUC
all_id_dat_risk 用户风险行为数据,可以直接使用 18.4% 0.543
all_id_dat_symbol 用户分类数据,一共28个特征 93.2% 0.545
all_id_dat_app 用户安装app情况,66个特征 69.9% 0.655
all_id_dat_edge 用户关联数据,一共173个特征 17.9% 0.637
all_id_centrality_df 根据用户关联图计算出的用户特征,一共11个特征 17.85% 0.585
all_id_cluster 利用louvain社区聚类得到的结果,一共82个特征 1.8% 0.556
one_step_label 一度联系人的标签信息,一共12个特征 99.4% 0.608
two_step_label 二度联系人的标签信息,一共22个特征 17.1% 0.602
one_spread_label 考虑了联系方向一度路由的标签信息,一共16个特征 71.4% 0.625
one_step_feature 一度联系人的加权平均特征信息,一共136个特征 17.9% 0.646

把所有的数据按照合并成一个DataFrame,作为最终的特征进行预测。

特征排序与离散化

对于有些数值类,使用他们的排序信息,也就是取特征的秩,来替代原始的特征, 同时每个特征进行分箱,由于等值分箱和等数量分箱都或多或少有一些不足之处, 所以我使用KMeans进行单变量聚类,聚成50类,类中心就是一个数值,类中心最小 的值记为换为1,次小的替换为2,然后以此类推排序取到50,使用这些数值作为新 的特征,相当于进行数据的离散化。

调参

把上面提取到的所有的特征拼接起来之后,用xgboost进行过一次拟合之后, 特征重要性大于0的特征,大约有300个,然后按照特征重要性降序排序,分别 用前50,70,90,...进行五折交叉验证,走势图如下:

可以看出在140个特征处达到了一个较高的水平,但是为了避免选140太苛刻, 我最终挑选了多个数目的特征来进行调参。比如:先固定特征数为前140个重要 的特征,然后对xgboost中的参数进行调参,然后固定前160个特征进行调参,等等。 对每一个参数都选出一定的范围作为备选参数,然后GridSearch进行调参,注 意,每次只调一个参数,然后更新模型参数,对下一个参数进行调参,这样一直 调到最后一个参数完成第一轮调参,然后用得到的模型进行预测,输出结果。然 后返回开始,以上一轮的最后的参数为起点再进行下一轮调参,这样一直调大约 5轮参数基本上就可以让准确率收敛。

然后选130个特征进行5轮调参,然后选180个参数进行5轮调参,等等。 这样最终输出了很多个预测结果。调参的具体逻辑和调整的参数可以从代码中看出。

测试集AUC下滑之谜

以在训练集上的5折交叉验证结果作为文件名的一部分。最终几乎每个模型在训练集上 的5折交叉验证结果都是0.695.上传到验证集上之后在0.717以上,然后把利用mic 互信息把这些结果进行融合,在验证集上可以达到0.7222AUC,但是在测试集上却 只有0.7053AUC. 后来经过检查,发现测试集的特征缺失率比验证集的数据缺失率高一些,而且是大部 分特征的缺失率在测试集上都比验证集上高一点。下面这张表展示了验证集上特征缺 失率与测试集上特征缺失率做差之后的value_counts。第一列代表验证集上特征缺 失率减去测试集上特征缺失率的差值,右边的整数则表示缺失率差值等于左边的特征 数目。对右边列的整数进行求和就是所有的特征数量。

用户app数据的缺失率差异

可以看出,验证集上大部分特征的缺失率都比测试集低,虽然低的并不多, 大部分是只低了3个千分点,最高的差距是1.6个百分点的数据缺失差。 经核实,这部分数据为用户app数据,而从我们上面的表可以看出,虽然用 户app数据很高,但是用户的app数据对于违约的预测能力却是很强的,这 也应该是导致测试集AUC下滑的重要原因之一。

用户关联数据的关联紧密程度

除了用户app数据,用户关联数据也是如此,因为用到了特征以及标签在复杂网络 上的传播,所以传播路径的存在与否对于特征的计算还是有很大影响。通过观察数 据缺失率发现,验证集与sample_train的关联紧密程度高于测试集与sample_train的 关联紧密程度,因为我们依据从用户关联数据上提取的标签特征都是基于sample_train的。 这也是导致测试集AUC的下滑的另一重要原因。

改进空间

由于大部分时间花在了特征工程上,尤其是社交网络图的特征表示上,所以很多机器学习的技巧没能使用上,比如

  • 1.针对不平衡数据的过采样和降采样
  • 2.利用其他没有标签的数据进行半监督学习
  • 3.特征和标签在用户关联图上传播的方式以及远近有待进一步的研究和实验
  • 4.针对缺失数据的填充或许也可以提高学习器的性能

相信使用了上面提到的方法之后,对于用户违约的预测能力还能又不小的提升。 但是,由于时间关系和水平有限,只能先做到这种程度。