您好,欢迎访问一九零五行业门户网

python实现决策树算法

本文实例讲述了python实现决策树算法。分享给大家供大家参考,具体如下:
from sklearn.feature_extraction import dictvectorizer import csv from sklearn import tree from sklearn import preprocessing from sklearn.externals.six import stringio # 读取csv数据,并将数据和特征值存入字典和类标签列表 allelectronicsdata = open(r'allelectronics.csv', 'rt') reader = csv.reader(allelectronicsdata) headers = next(reader) # 原代码中用的是: # headers = reader.next() # 这句代码应该是之前的版本用的,现在已经更新了没有next这个函数 # print(headers) featurelist = [] labellist = [] for row in reader: labellist.append(row[len(row) - 1]) rowdict = {} for i in range(1, len(row) - 1): rowdict[headers[i]] = row[i] featurelist.append(rowdict) # print(featurelist) # 将特征值矢量化,代表将各种参数进行矢量化 vec = dictvectorizer() dummyx = vec.fit_transform(featurelist).toarray() # print("dummyx: " + str(dummyx)) # print(vec.get_feature_names()) # print("labellist: " + str(labellist)) # 将类标签列表矢量化,就是最后的结果 lb = preprocessing.labelbinarizer() dummyy = lb.fit_transform(labellist) # print("dummyy: " + str(dummyy)) # 使用决策树进行分类 clf = tree.decisiontreeclassifier() # clf = tree.decisiontreeclassifier(criterion = 'entropy') clf = clf.fit(dummyx, dummyy) # print("clf: " + str(clf)) # 将模型进行可视化 with open("allelectrionicinformationori.dot", 'w') as f: f = tree.export_graphviz(clf, feature_names = vec.get_feature_names(), out_file = f) onerowx = dummyx[0, :] # print("onerowx: " + str(onerowx)) # 接下来改变一些数据进行预测 newrowx = onerowx newrowx[0] = 0 newrowx[1] = 1 print("newrowx: " + str(newrowx)) predictedy = clf.predict(newrowx.reshape(1, -1)) # 预测的结果需要加上后面的reshape(1, -1),不然会 # 报错: # valueerror: expected 2d array, got 1d array instead: # array=[0. 1. 1. 0. 1. 1. 0. 0. 1. 0.]. # reshape your data either using array.reshape(-1, 1) # if your data has a single feature or array.reshape(1, -1) if it contains a single sample. print("预测的结果为: " + str(predictedy))
针对人员购买力进行一次分类,以此来对项目进行分类,在最后的过程中,还可以对结果进行一定的预测。代码见上,有一些优点和缺点
决策树算法的优点:
1)简单直观,生成的决策树很直观。
2)基本不需要预处理,不需要提前归一化,处理缺失值。
3)使用决策树预测的代价是o(log2m)o(log2m)。 m为样本数。
4)既可以处理离散值也可以处理连续值。很多算法只是专注于离散值或者连续值。
5)可以处理多维度输出的分类问题。
6)相比于神经网络之类的黑盒分类模型,决策树在逻辑上可以得到很好的解释
7)可以交叉验证的剪枝来选择模型,从而提高泛化能力。
8) 对于异常点的容错能力好,健壮性高。
我们再看看决策树算法的缺点:
1)决策树算法非常容易过拟合,导致泛化能力不强。可以通过设置节点最少样本数量和限制决策树深度来改进。
2)决策树会因为样本发生一点点的改动,就会导致树结构的剧烈改变。这个可以通过集成学习之类的方法解决。
3)寻找最优的决策树是一个np难的问题,我们一般是通过启发式方法,容易陷入局部最优。可以通过集成学习之类的方法来改善。
4)有些比较复杂的关系,决策树很难学习,比如异或。这个就没有办法了,一般这种关系可以换神经网络分类方法来解决。
5)如果某些特征的样本比例过大,生成决策树容易偏向于这些特征。这个可以通过调节样本权重来改善。
相关推荐:
数据挖掘十大算法之决策树详解
决策树算法
决策树算法原理及案例
决策树算法实现
以上就是python实现决策树算法的详细内容。
其它类似信息

推荐信息