有没有办法在pytorch中为卷积神经网络指定我们自己的自定义内核值?像张量流中的kernel_initialiser?例如。我想在nn.Conv2d
中使用初始化的3x3内核,以便它充当身份内核 -
0 0 0
0 1 0
0 0 0
(这将在第一次迭代中有效地返回与我的输入相同的输出)
我对该主题的非详尽研究 -
我可以使用nn.init但它只有一些预定义的内核初始化值。
我试图跟随他们的official thread的讨论,但它不符合我的需要。
我可能错过了我的研究中的一些内容,请随时指出。
感谢ptrblck,我能够解决它。我可以将新的卷积层定义为conv
,并且根据示例,我可以使用 - 设置身份内核 -
weights = ch.Tensor([[0, 0, 0], [0, 1, 0], [0, 0, 0]]).unsqueeze(0).unsqueeze(0)
weights.requires_grad = True
conv = nn.Conv2d(1, 1, kernel_size=3, stride=1, padding=1, bias=False)
with ch.no_grad():
conv.weight = nn.Parameter(weights)
然后我可以继续使用conv
作为我的常规nn.Conv2d
层。
我认为更简单的解决方案是:
deconv = nn.ConvTranspose2d(
in_channels=channel_dim, out_channels=channel_dim,
kernel_size=kernel_size, stride=stride,
bias=False, padding=1, output_padding=1
)
deconv.weight.data.copy_(
get_upsampling_weight(channel_dim, channel_dim, kernel_size)
)
换句话说使用copy_