递归神经网络(RNN)是一类人工神经网络,其中单元之间的连接形成有向循环。
我是CNN、RNN和深度学习的新手。输入图像大小=[20,3,48,48],CNN输出大小=[20,64,48,48],现在我想让CNN输出是......
我是一个新手,在这里写作。所以请大家多多包涵。我正在运行这段代码来打开我的文件,我把这个放在正确的目录 "data "中。但我的python连续给我发送错误信息。I ...
我正试图使用RNN对一个时间序列进行预测,问题是,由于我试图调整(纪元和节点的数量),它给我不同的结果,当我再次运行它们会......
为什么在简单的Elman RNN中输出形状取决于序列长度(而隐藏状态形状不取决于序列长度?
我正在学习RNN,并且正在尝试使用PyTorch编写代码。我在理解输出尺寸时遇到了一些麻烦。这是一些简单的RNN体系结构类RNN(nn.Module)的代码:...
我正在尝试使用pytorch从零开始构建RNN,我正在按照本教程进行构建。 import torch import torch.nn as nn import torch.nn.function as F class BasicRNN(nn.Module):...
我想从55天的培训规模中预测7天。我尝试应用此处和此处给出的模型,但是我得到的所有7天的输出值为1。我也很困惑如何给时间...
我正在尝试在tensorflow中自定义一个图层。该层必须将参差不齐的,长度不明的tesnor作为输入。但是,在尝试构建层时,代码卡住了。甚至附有简单的代码...
我对x_train和y_train有2个语料库,在经过如下处理后:corpusMSA中行的input_sequences = []标签= [] indexCA = 0:lineCA = corpusCA [indexCA] .split()#保存CA ...
为什么LSTM使用Sigmoid函数来模仿门机制而不是二进制值(0/1)?
在LSTM中,我们通常使用S型函数来模仿Gates机制(软性),但是问题是,在很多情况下,该函数的值大约为0.5,对于...而言,这没有任何意义。
((我从概念上理解RNN的工作原理。在某些用例中,我也使用RNN / LSTM。)要深入了解RNN和RNN变量模型的工作原理,我想尝试一些实验。 ...
我在训练以下GRU模型时遇到一些问题,该模型必须是有状态的,并输出隐藏状态。导入numpy as np导入tensorflow as tf#2.1.0从tensorflow导入keras ...
初学者使用Keras的问题,我有一个顺序的CNN模型,该模型基于image(input)预测大小为[3 * 1](回归)的输出。如何实现RNN以添加...
在PyTorch中,训练RNN以预测给定序列的最后一个单词与预测整个序列移位之间有什么区别?
假设我正在尝试在PyTorch中训练RNN语言模型。假设我遍历了单词序列的批次,并且每个训练批次张量都具有以下形状:data.shape = [batch_size,...
我试图设计一个rnn模型来进行情感分析。因此,RNN可以预测给定文本的情绪(消极,中立,积极,混合)。该模型使用RNN迭代给定的单词序列...
寻求有关为时间序列分类准备输入数据的帮助。数据来自一堆需要分类的用户。我想使用LSTM(计划通过Keras与Tenserflow一起实现...
应该在使用keras.preprocessing.text Tokenizer之后将 和 标签显式添加到词汇表中?
在Keras中,我们有keras.preprocessing.text来根据需要对文本进行标记化并生成词汇。 tokenizer = tf.keras.preprocessing.text.Tokenizer(split ='',oov_token = 1)tokenizer ....
我尝试对某些分类使用LSTM,并且看到一些将h_n和h_c设置为0的示例,是否可以使用其他值初始化这两个参数?
使用GradientTape优化后的Tensorflow强化学习RNN返回NaN
def create_example_model():tf.keras.backend.set_floatx('float64')model = Sequential()model.add(LSTM(128,input_shape =((60,len(df_train.columns)))))模型。 add(Dense(64,activation ='...
在TensorFlow 2.0中,如何将上一个时间步的LSTM模型的输出作为下一个时间步的输入?
我想建立一个LSTM模型,其中第(n + 1)个时间步的输入是第(n)个时间步的输出的函数。我看不到在当前框架中可以做到的方式。人们一直在...