无法使用sklearn重现训练和测试的分割

问题描述 投票:0回答:2

我通过 Anaconda Navigator 使用 Jupyter Notebook 版本 5.6.0。我试图将数据集拆分为训练和测试,但每当我关闭并重新打开笔记本并重新运行代码时,它都会创建不同的训练和测试集。如果我只是重新运行代码而不关闭笔记本,那么

random_state
就可以工作。这是正常的吗?有没有办法解决这个问题,即使我关闭并重新打开笔记本,它仍然会以相同的方式分割数据集?

我已经设置了

train_test_split
方法的随机状态,但它仍然产生不同的数据分割。

这是迄今为止我的代码:

#Split dataset into Training and Testing
from sklearn.model_selection import train_test_split

y = train['Target']

x_train, x_test, y_train, y_test = train_test_split(train, y, test_size=0.2, random_state = 0)
x_train.head()

第一次运行的结果是这样的:

      |   ID        |    Country           |   Target

7093  |   9.56      |      Tokyo           |    Yes

5053  |   9.58      |      Bangkok         |    Yes

1627  |   9.53      |      New York        |    No

2514  |   9.55      |      Los Angeles     |    No

重新运行值显示:

      |   ID        |    Country           |   Target

3805  |   9.51      |     Chicago          |    No

6730  |   9.59      |     Seattle          |    No

7623  |   9.57      |     Busan            |    Yes

7045  |   9.60      |     Seoul            |    Yes
python scikit-learn split
2个回答
1
投票

您从哪里以及如何获取测试数据?如果您的数据来自动态源(随机生成的数据、来自服务器的数据,或者如果您通过从中选取随机值来减少数据),则会导致问题。 我通常会通过创建数据副本来解决问题,以便我可以使用

pickle.io
来引用它。此代码假设我已经将数据作为数据框:

df.to_pickle(file_name)

接下来我将简单地使用我存储的数据,使用:

df = pd.read_pickle(file_name)

然后 从 sklearn.model_selection 导入 train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=101)

0
投票

尝试在 numpy 中设置随机状态:

import numpy as np
np.random.seed(42)
© www.soinside.com 2019 - 2024. All rights reserved.