ValueError Traceback (most recent call last)
<ipython-input-30-33821ccddf5f> in <module>
23 output = model(data)
24 # calculate the batch loss
---> 25 loss = criterion(output, target)
26 # backward pass: compute gradient of the loss with respect to model parameters
27 loss.backward()
C:\Users\mnauf\Anaconda3\envs\federated_learning\lib\site-packages\torch\nn\modules\module.py in __call__(self, *input, **kwargs)
487 result = self._slow_forward(*input, **kwargs)
488 else:
--> 489 result = self.forward(*input, **kwargs)
490 for hook in self._forward_hooks.values():
491 hook_result = hook(self, input, result)
C:\Users\mnauf\Anaconda3\envs\federated_learning\lib\site-packages\torch\nn\modules\loss.py in forward(self, input, target)
593 self.weight,
594 pos_weight=self.pos_weight,
--> 595 reduction=self.reduction)
596
597
C:\Users\mnauf\Anaconda3\envs\federated_learning\lib\site-packages\torch\nn\functional.py in binary_cross_entropy_with_logits(input, target, weight, size_average, reduce, reduction, pos_weight)
2073
2074 if not (target.size() == input.size()):
-> 2075 raise ValueError("Target size ({}) must be the same as input size ({})".format(target.size(), input.size()))
2076
2077 return torch.binary_cross_entropy_with_logits(input, target, weight, pos_weight, reduction_enum)
ValueError: Target size (torch.Size([16])) must be the same as input size (torch.Size([16, 1]))
我正在训练 CNN。处理马与人类数据集。 这是我的代码。我正在使用
criterion = nn.BCEWithLogitsLoss()
和 optimizer = optim.RMSprop(model.parameters(), lr=0.01
)。我的最后一层是self.fc2 = nn.Linear(512, 1)
。最后一个神经元,将为马输出 1,为人类输出 0,对吧?或者我应该选择 2 个神经元作为输出?
16
是批量大小。由于错误显示 ValueError: Target size (torch.Size([16])) must be the same as input size (torch.Size([16, 1]))
。我不明白,我需要在哪里进行更改,以纠正错误。
target = target.unsqueeze(1)
,在将目标传递给标准之前,将目标张量大小从[16]
更改为[16,1]
。这样做解决了问题。此外,在将其传递给标准之前,我还需要执行 target = target.float()
操作,因为我们的输出是浮点数。此外,代码中还有另一个错误。我在最后一层使用了 sigmoid 激活函数,但我不应该这样做,因为我使用的标准已经内置了 sigmoid。
您也可以尝试
_, pred = torch.max(output, 1)
,然后将 pred
变量传递到损失函数中。
当我运行我的模型时,我遇到了同样的错误。我可以通过在数据集类返回
torch.tensor([target]).float().to(device)
来纠正它。