cross-validation 相关问题

交叉验证是一种评估和比较统计和机器学习中预测系统的方法。

使用 pytorch 进行 k 折交叉验证

我正在训练将 k 折交叉验证添加到我的脚本中,在阅读了一些文档后,它说训练循环应该位于折叠循环内 但我不明白的是...

回答 1 投票 0

克隆和拟合 RandomizedSearchCV 后的随机化行为

我有一个基本的嵌套 CV 循环,其中外部循环执行内部模型调整步骤。我的期望是每次折叠都应该抽取不同的超参数值随机样本。然而,在...

回答 1 投票 0

使用 cross_val_predict 与 cross_val_score 时,scikit-learn 分数不同

我希望这两种方法都会返回相当相似的错误,有人可以指出我的错误吗? 计算 RMSE... rf = RandomForestRegressor(random_state=555,n_estimators=100,max_深度=8)

回答 2 投票 0

目标转换和特征选择。 ValueError:输入 X 包含 NaN

我在 scikit-learn 中使用 RFECV 进行特征选择。我想使用 log(y) 运行 XGBoost 模型,因为我已经能够证明它的性能比仅 y 更好。 简单的...

回答 1 投票 0

跨多个模型的交叉验证折叠的一致性

我目前正在做一个机器学习项目,其中使用三种不同的模型:随机森林、AdaBoost 和梯度提升。对于每个模型,我将它们应用到一组

回答 1 投票 0

如何使用 LightGBM.LGBMRanker 执行交叉验证,同时保持组在一起?

我遇到了搜索问题,我有一个查询和网址数据集。对于给定的查询,每对(查询、网址)都有一个相关性(目标),即一个应保留网址顺序的浮点数。 我会...

回答 1 投票 0

如何使用sklearn获得K-Fold交叉验证的平均分

我使用sklearn应用K折决策树,有人可以帮助我显示它的平均分数。下面是我的代码: 将 pandas 导入为 pd 将 numpy 导入为 np 将 matplotlib.pyplot 导入为 plt 来自

回答 2 投票 0

我是给 cross_val_score() 整个数据集还是只提供训练集?

由于该类的文档不是很清楚。我不明白我赋予它什么价值。 cross_val_score(估计器,X,y=无) 这是我的代码: clf = LinearSVC(random_state=种子, **参数)

回答 2 投票 0

Sklearn cross_val_score 给出的数字与 model.score 明显不同?

我有一个二元分类问题 首先我训练测试将我的数据分割为: X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42) 我检查了 y_train,它基本上...

回答 1 投票 0

使用cross_val_score时我们只使用训练数据吗?

我们向 cross_val_score 提供训练数据还是整个数据?使用 cross_val_score 时我很困惑。我知道我们将数据划分为训练和测试,并为我们的模型提供训练......

回答 2 投票 0

在手动交叉验证和cross_val_score之间获得不同的分数值

我创建了一个 python for 循环,将训练数据集分割成分层的 KFold,并在循环内使用分类器来训练它。然后使用经过训练的模型通过验证数据进行预测。 ...

回答 1 投票 0

在手动交叉验证和cross_val_score之间获取不同的指标值

我创建了一个 python for 循环,将训练数据集分割成分层的 KFold,并在循环内使用分类器来训练它。然后使用经过训练的模型通过验证数据进行预测。 ...

回答 1 投票 0

如何使用sklearn的cross_val_score()标准化数据

假设我想使用 LinearSVC 对数据集执行 k 折交叉验证。我如何对数据进行标准化? 我读过的最佳实践是建立标准化......

回答 1 投票 0

不同的交叉验证技术产生相同的评估指标

我实现了三种 ML 算法(K 最近邻、决策树和随机森林)并使用四种不同的交叉验证技术(保留方法、留一方法、K 折叠交叉验证.. .

回答 1 投票 0

Pyspark ML CrossValidator 评估多个评估器

在 GridSearchCV 的 Sklearn 中,我们可以为模型提供不同的评分,并且通过改装参数,我们使用整个数据集中找到的最佳参数来改装其中之一。 有什么办法吗

回答 1 投票 0

为什么在 k 倍的情况下需要单独的测试集,而不是在 LOOCV 的情况下?

为什么在 k 折的情况下需要单独的测试集,而在留一交叉验证(LOOCV)的情况下不需要? 怀疑在于交叉验证——我脑子里有某种困惑。当我们这样做时

回答 1 投票 0

分组时间序列(面板)数据的交叉验证

我使用面板数据:我随着时间的推移观察许多单位(例如人);对于每个单元,我都有相同固定时间间隔的记录。 将数据分为训练集和测试集时,我们需要...

回答 2 投票 0

不平衡数据集的分类

我有一个包含 3 个类别的数据集,这些数据集来自 40 个人。有些人有 3 类数据,有些人只有 2 类或 1 类数据。我正在尝试用一个 p 进行分类...

回答 1 投票 0

为什么我的交叉验证模型给出 100% 的验证准确度?

我一直在尝试对自闭症进行分类并拥有一个 CNN 模型。迄今为止论文中的最佳准确率约为 70-73%~,而我的模型在不同参数下的准确率约为 65-70%。我有...

回答 1 投票 0

交叉验证后做什么

我读到,一旦我使用 k 折交叉验证(在训练集上)调整了我的超参数,我应该在整个训练集上训练我的模型,然后在测试集上评估我的模型。

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.