重用特征来分割回归决策树的节点

问题描述 投票:0回答:2

在我观看的关于回归树算法的视频结束时,我留下了一个小问题:当数据集的某些特征具有残差平方和的阈值较低时,它用于分割节点(如果节点中的观测值数量大于某个预定义值)。但是可以再次使用相同的功能来分割树的该分支的节点吗?或者该分支的后续分割必须按照其他特征定义的阈值进行分割(即使已经分割其他节点的特征的阈值具有该节点观测值残差平方和的较低值)?

此外,在研究决策树分类器时,我也有同样的疑问:与其他特征可能进行的分割相比,该分支中已使用的某个特征是否可以分割基尼杂质值较低的某个节点的观察结果,那么这个“已使用”功能是否允许执行拆分?

提前感谢您的关注!

algorithm machine-learning computer-science decision-tree theory
2个回答
1
投票

如果

x1
是连续变量,根节点可以按如下方式分割:
x1<0
为左子节点,
x1>=0
为右子节点。因此,在
x1
上分割下一个节点(比如说右子节点)可能仍然是有益的。例如:
x1<10
x1>=10
。符合第一个条件的样本将对应于
x1
在 0 到 10 之间的样本!


0
投票

记住哪些数据与树中的任何节点关联非常重要。假设我在特征 x1 上分割根节点,其中左子节点 x1=0,右子节点 x1=1。那么左子树中的所有东西都会有x1=0。在 x1 上分割不再有意义 - 所有数据都具有相同的 x1 值!

© www.soinside.com 2019 - 2024. All rights reserved.