【决策树】理解与使用
1:决策树原理理解 决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。 其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。 使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。 总结来说: 决策树模型核心是下面几部分:
2:决策实例 假如我现在告诉你,我买了一个西瓜,它的特点是纹理是清晰,根蒂是硬挺的瓜,你来给我判断一下是好瓜还是坏瓜,恰好,你构建了一颗决策树,告诉他,没问题,我马上告诉你是好瓜,还是坏瓜? 判断步骤如下: 根据纹理特征,已知是清晰,那么走下面这条路,红色标记: ? 好的,现在咋们到了第二层了,这个时候,由决策树图,我们看到,我们需要知道根蒂的特征是什么了?很好,他也告诉我了,是硬挺,于是,我们继续走,如下面蓝色所示: ? ? ? ? ? ?此时,我们到达叶子结点了,根据上面总结的点,可知,叶子结点代表一种类别,我们从如上决策树中,可以知道,这是一个坏瓜! ? 1:决策时代码使用 import numpy as np from sklearn.tree DecisionTreeClassifier import sklearn.datasets as datasets ? iris = datasets.load_iris() # 鸟分类数据集 X = iris['data'] y = iris[target] from sklearn.model_selection train_test_split X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.2) sklearn.tree as sk_tree model = sk_tree.DecisionTreeClassifier(criterion=entropy',max_depth=None,min_samples_split=2,min_samples_leaf=1,max_features=None,max_leaf_nodes=None,min_impurity_decrease=0) model.fit(X_train,y_train) 构建决策树 acc=model.score(X_test,y_test) 根据给定数据与标签返回正确率的均值 决策树模型评价: ? ? ?总结:将给的训练集特征分层特征后,进行训练后构建决策树,输入需要预测的特征数据,得出觉得分类 (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |