监督学习是从标记的训练数据推断功能的机器学习任务。培训数据由一组培训示例组成。在监督学习中,每个示例是由输入对象(通常是向量)和期望输出值(也称为监督信号)组成的对。监督学习算法分析训练数据并产生推断函数,该函数可用于映射新示例。
我对机器学习非常陌生,目前我正在构建一个可以预测重复献血者的模型(分类问题)。我有一个包含 25 个特征(性别、身高...
我有大量(比如说3000个)关键词。这些关键词需要分为七个固定类别。每个类别都有训练数据(样本关键词)。我需要一个算法,当一个新的关键词...
我有一个 TimeSeries 数据集,其中包含如下所示的图。我正在尝试找到对时间序列进行分割的最佳方法。我需要将时间序列分为三个区域 - 'R...
我知道关联属于无监督学习,回归属于监督学习,但我不明白它们之间的实际/实际差异。 据我搜索,...
我有一辆可以被命令达到不同速度的汽车,我正在尝试使用 XGBoost 来训练一个可以预测汽车随时间变化的速度的模型。 我对这个问题的第一次尝试是做一个简单的
我最近实现了线性回归的梯度下降代码。但是当我增加迭代次数时,我得到的“w”和“c”值与
我有两个数据集,一个是数字数据集,一个是数字数据集的语义信息。我想训练一个自动编码器来提供应该与语义数据集匹配的潜在嵌入。即:ae_model =
我一直在研究 R 中的主成分分析概念。 我很乐意将 PCA 应用于(例如,标记的)数据集并最终提取出最有趣的第一个...
在使用 XGBClassifier 时,我陷入了他们的错误,不知道背后的原因。您能否为我提供解决此错误的宝贵指导? XGBoostError:[14:09:03] C:/
我正在尝试训练基于 CNN 的深度补全模型(Github 链接),但在训练模型时遇到了一些一般性问题。 我的基本程序是对我的深度和输入进行下采样,对
这是我尝试运行代码时显示的内容: FutureWarning:与其他缩减函数(例如偏斜、峰度)不同,mode 的默认行为通常会保留它作用的轴。在科学...
找到的参数应该是有限的还是估计的? (剖析 Python 代码)
def gradient_descent(x, y, w_in, b_in, alpha, num_iters, cost_function, gradient_function): """ 执行梯度下降以拟合 w,b。通过采取更新 w,b num_iters gr...
如何计算 K 折交叉验证的不平衡数据集的精度、召回率和 f1 分数?
我有一个包含二元分类问题的不平衡数据集。我构建了随机森林分类器并使用了 10 折的 k 折交叉验证。 kfold = model_selection.KFold(n_splits...
我有两个文件夹,每个文件夹包含各种.txt文件中的单词,一个文件夹名为'good'而另一个文件夹名为'bad',我想编写一个python脚本将所有数据导入到一个
HMM的石榴from_samples函数是否只接受浮点数作为序列
我正在尝试使用石榴为词性标记创建一个 HMM,但是当我使用 from_samples 函数时,出现无法将字符串转换为浮点数错误。我对 X 的输入是 ...
查阅了一些资料,知道contrastive learning和metric learning的目标都是学习这样一个embedding space,相似的样本对在这个空间里靠得很近,同时
我在 Coursera 上注册了 Andrew Ng 的机器学习专业课程,在那里我遇到了实现梯度下降算法的这个函数。 def gradient_descent(x, y, w_in,...
我有一个关于使用均匀流形近似和投影(UMAP)进行特征提取的问题。 在我的项目中,我使用了两个表格数据集,它们都包含大约 10000 个样本。一公顷...
我正在努力解决我需要解决的问题。 假设我们有一个汽车数据集 (1),其中包含许多具有不同特征(id、年龄、里程、颜色、型号……)的不同汽车。哦...
我有一个有大量缺失数据的模型。有大约20000条记录用于训练,5000条记录用于测试,模型的性能得到了验证。我有...