反向传播是梯度计算的一种方法,通常用于人工神经网络中以执行梯度下降。
自我使反向传播无法在Python(2-Neuron-network)中起作用
i我试图用书中描述的为什么机器在第330页上学习的书中建立一个神经网络。这是我的代码,我不知道为什么它不起作用。我在w之前尝试过这样的事情...
我正在尝试理解示例在Pytorch github上加强Pytorch实现:
One particular point is a sticking point I am unable to understand at line 75.
为什么我的神经网络在训练数据上准确率很高,但在测试数据上准确率只有10%?
我最近开始涉足人工智能和神经网络,我观看了这个 3Blue1Brown 视频系列,解释了反向传播的原理,然后我决定通过创建...
我正在学习如何使用卷积神经网络,并且我继续为此编写自己的框架。 我陷入了必须通过网络反向传播错误(增量)的部分,
我正在尝试仅使用 NumPY 库创建一个分类神经网络。我已经完全创建了这个网络并研究了它的逻辑,对我来说它看起来非常好。 ...
训练AlphaZero时如何在PyTorch中进行反向传播?
我正在尝试为 Connect Four 实现我的 AlphaZero 版本。我已经使用 PyTorch 实现了一个卷积网络,并且可以从给定的模型中获取(随机)值和策略输出
我正在尝试从这张试卷中算出第 26 题(考试是 2002 年的,不是我评分的!) 这就是确切的问题: 答案是B。 有人可以指出我要去哪里吗
我看到了 keras 中带有 Theano 后端的 GRL 层的一些代码片段。我如何使用 Tensorflow 后端来实现它。我对 keras 的经验较少。我正在尝试实施 DANN(域广告...
你能告诉我随机梯度下降(SGD)和反向传播之间的区别吗?
最近在研究PyTorch和backward()。 我明白如何使用它,但是当我尝试时: x = 变量(2*torch.ones(2, 2), require_grad=True) x.向后(x) 打印(x.grad) 我期望: 张量([[1., 1.], ...
通过这本书,我熟悉以下内容: 对于每个训练实例,反向传播算法首先生成一个 预测(前向传递),测量误差,然后进行
我有一个张量A,它来自原始点云数据。它的大小是(N,3)。另外,我有一个张量B。它是神经网络的输出分数张量。它的大小是(N,1)。我首先使用torch.cat...
我在许多神经网络相关论文中看到了直通估计器(STE),例如这个和这个。但我无法理解这个概念。 我想知道是否有人可以解释一下STE。
由于观察没有揭示整个状态,我需要用循环神经网络进行强化,以便网络对过去发生的事情有某种记忆。为了简单...
我正在尝试实施论文中的学习技术。相关部分是:SNN基线使用了50个连续数据点的滑动窗口,代表200毫秒的数据(50点风...
我正在尝试计算Softmax反向传递; fn softmax_backward(&self, logits: &Vec) -> Vec { 让概率 = self.forward(logits); 让 mut 求导...
Pytorch 中的列选择可微分吗?例如,如果我想从每一行中选择一列来创建一个新的行 X 1 数组,然后使用这个新数组作为背景,背景会工作吗...