七、多变量决策树
由于决策树使用平行于坐标轴的拆分,使得它对于一些很简单的问题很费力。
比如:当 时为正类;否则为反类。这种拆分边界并不平行于坐标轴,使得决策树会用许多层的拆分来逼近这个边界。
解决方案是:多变量决策树
multivariate decision tree
。- 传统的单变量决策树的分类边界每一段是与坐标轴平行的,每一段划分都直接对应了某个属性的取值。
- 多变量决策树的分类边界可以为斜线,它可以大大简化了决策树的模型。
多变量决策树中,内部结点不再是针对某个属性,而是对属性的线性组合。即:每个内部结点是一个 的线性分类器。其中:
- 是属性 的权重。
- 为变量的数量。
- 表示这些变量的约束。
- 与传统的单变量决策树不同,在多变量决策树的学习过程中,不是为每内部结点寻找一个最优划分属性,而是试图建立一个合适的线性分类器。