仅在 Keras 功能 API LSTM 中使用额外的 Ground Truth 来实现自定义损失函数
我目前有一个使用 Keras Function API 构建的简单 LSTM 模型,该模型采用 X_train 数据集来预测关联的 Y_train 数据。我构建了一个自定义损失函数,可以使用 y_pred 和 y_t...
dtype uint8 的张量可以用于损失函数吗?稍后将调用 '.backward()'?
我尝试计算 dtype float32 的张量和另一个 dtype uint8 的张量之间的损失。 由于损失函数执行自动类型提升,因此我没有明确进行类型转换...
pytorch Lightning 中loss.backward()如何计算
我明白了当training_step()返回loss时,自动优化的代码 (链接)负责loss.backward() 有人可以告诉我 loss.backward() 有什么不同吗
当我编写自己的损失函数代码时,我需要计算张量数据类型图像的每个像素的损失值,然后将所有损失值相加来计算平均值。但是当我运行
为什么在启用 from_logits 的情况下使用 BinaryCrossEntropy 会导致生成器损失?
我从 GitHub 上查看了一个简单的普通 GAN 代码 我看到了这个带有激活 sigmoid 的生成器模型: # 发电机 G = tf.keras.models.Sequential([ tf.keras.layers.Dense(28*28 // 2, input_shape = ...
在tabnet包中,我希望损失是多类分类的平衡精度。类似于yardstick::bal_accuracy_vec()。我怎样才能做到这一点? 我确实知道如何计算平衡
如果我有类似的东西: 模型 = 模型(输入 = 输入,输出 = [y1,y2]) l1 = 0.5 l2 = 0.3 model.compile(loss = [loss1,loss2], loss_weights = [l1,l2], ...) Keras 如何处理
我在 torch 中有两个嵌套的神经网络,我正在计算输出中相对于不同参数的多个损失。下面是一个简单的案例 # 两个神经网络 >>&...
在numpy中创建简单的线性回归模型后,我发现改变步长/学习率并不能有效提高模型的准确性或收敛速度。注意事项
这是直接从我的 pytorch 闪电设置中取出的。我对选择损失函数不太熟悉。 我正在尝试在 SSD 上训练我的数据,这需要我有一个张量和一个字典列表....
我第一次使用 PyTorch 使用 Bert 的预训练模型来训练我的情感分析模型。 这是我的分类器 类 SentimentClassifier2(nn.Module): def __init__(self, n_classe...
如何在 TensorFlow 中实现两个图像的梯度差损失,就像使用 PyTorch 制作的那样(https://github.com/mmany/pytorch-GDL/blob/main/custom_loss_functions.py)?谢谢!
我正在尝试访问 PyTorch 的交叉熵损失函数 (torch.nn.function.cross_entropy) 的特定值,我相信当输入是长度为 N 的向量时正在计算该值。我会...
如何在 JAX 中使用具有多输出(向量值)损失函数的梯度下降来训练模型?
我正在尝试训练一个具有两个梯度下降输出的模型。因此,我的成本函数返回两个错误。处理这个问题的典型方法是什么? 我在这里看到过提及并且
如何在 JAX 中使用具有多输出损失函数的梯度下降来训练模型?
我正在尝试训练一个具有两个梯度下降输出的模型。因此,我的成本函数返回两个错误。处理这个问题的典型方法是什么? 我在这里看到过提及并且
我正在尝试解决分类问题,但代码中有些东西对我不起作用。 我有一个接收 30 个输入并输出 4 个动作的网络。 每个动作都可以接收一个整数值
我正在尝试使用 Pytorch 获取两个分布之间的 KL 散度,但输出通常为负数,这不应该是这样的: 进口火炬 导入 torch.nn.function 作为 F
我想使用 IMU(加速度计和陀螺仪)读数通过神经网络计算姿态。输入将为 input_shape = (time steps, 6) ,输出为四元数形式 output_...
我想使用 Tensorflow 训练循环神经网络。我的模型为每个训练样本输出一个 1 x 100 向量。假设 y = [y_1, y_2, ..., y_100] 是我训练样本 x a...
我有一个语义分割任务,我正在使用 PyTorch 解决该任务。我使用(骰子损失+ BCE)作为损失函数。我知道每张图像都有一个掩模,如果我...