我通过 Anaconda Navigator 使用 Jupyter Notebook 版本 5.6.0。我试图将数据集拆分为训练和测试,但每当我关闭并重新打开笔记本并重新运行代码时,它都会创建不同的训练和测试集。如果我只是重新运行代码而不关闭笔记本,那么
random_state
就可以工作。这是正常的吗?有没有办法解决这个问题,即使我关闭并重新打开笔记本,它仍然会以相同的方式分割数据集?
我已经设置了
train_test_split
方法的随机状态,但它仍然产生不同的数据分割。
这是迄今为止我的代码:
#Split dataset into Training and Testing
from sklearn.model_selection import train_test_split
y = train['Target']
x_train, x_test, y_train, y_test = train_test_split(train, y, test_size=0.2, random_state = 0)
x_train.head()
第一次运行的结果是这样的:
| ID | Country | Target
7093 | 9.56 | Tokyo | Yes
5053 | 9.58 | Bangkok | Yes
1627 | 9.53 | New York | No
2514 | 9.55 | Los Angeles | No
重新运行值显示:
| ID | Country | Target
3805 | 9.51 | Chicago | No
6730 | 9.59 | Seattle | No
7623 | 9.57 | Busan | Yes
7045 | 9.60 | Seoul | Yes
您从哪里以及如何获取测试数据?如果您的数据来自动态源(随机生成的数据、来自服务器的数据,或者如果您通过从中选取随机值来减少数据),则会导致问题。 我通常会通过创建数据副本来解决问题,以便我可以使用
pickle.io
来引用它。此代码假设我已经将数据作为数据框:
df.to_pickle(file_name)
接下来我将简单地使用我存储的数据,使用:
df = pd.read_pickle(file_name)
然后 从 sklearn.model_selection 导入 train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=101)
尝试在 numpy 中设置随机状态:
import numpy as np
np.random.seed(42)