深度学习是一个机器学习领域,其目标是使用“深层”(由多层组成)的特殊神经网络架构来学习复杂的功能。此标记应用于有关深度学习体系结构实现的问题。一般机器学习问题应标记为“机器学习”。包括相关软件库的标签(例如,“keras”或“tensorflow”)是有帮助的。
即使训练=False,Tensorflow 模型仍然可以训练
重现的简单代码如下 将张量流导入为 tf 将tensorflow.keras导入为keras inp = keras.Input((3, 3)) 层 = keras.layers.Dense(1) tar = 层(inp) tar2 = 层(inp, 训练=False)
大家! 我在图像回归任务中遇到了关于我的深度学习项目的问题,我想知道如何在模型执行的每个时期获得 RMSE 值,并且
即使在查看了文档和相关问题之后,我也不明白squeeze()和unsqueeze()对张量做了什么。 我试图通过自己在 python 中探索来理解它。我首先创建了一个...
从文本开始,我希望能够识别特定信息。 例子 : 输入文本:“发票编号为 18”、“发票:75”、“发票编号:84” 已识别发票...
OpenAI 的强化学习 REINFORCE 和 actor-critic 示例具有以下代码: 加强: policy_loss = torch.cat(policy_loss).sum() 演员评论家: 损失 = torch.stack(policy_losses)...
torch.stack() 和 torch.cat() 函数有什么区别?
OpenAI 的强化学习 REINFORCE 和 actor-critic 示例具有以下代码: 加强: policy_loss = torch.cat(policy_loss).sum() 演员评论家: 损失 = torch.stack(policy_losses)...
我对卷积神经网络和机器学习总体来说是新手,如果我的问题真的很简单,那么提前抱歉,但我已经搜索了一段时间,但没有找到解决方案...
用于 ASL 图像预测的 ConvLSTM 模型的验证损失改进
我一直在尝试构建一个 convLSTM 模型,用于将 ASL 图像分类为数据集中给定的 29 个类别之一。我正在使用的数据集是这样的 - https://www.kaggle.com/datasets/debashishsau/
我是强化学习新手,所以我不确定这是否是一个合理的担忧。目前我正在开展一个有关太赫兹频段通信的研究项目。我正在编写一个深度 Q 学习算法来
tensor.permute()和tensor.view()有什么区别? 他们似乎做同样的事情。
tensorflow 联合错误模块“tensorflow_federated.python.learning”没有属性“build_federated_averaging_process”
我有一个ML代码 将 pandas 导入为 pd 将 numpy 导入为 np 从 sklearn.datasets 导入 load_iris 从 sklearn.model_selection 导入 train_test_split 从 sklearn.preprocessing 导入 StandardScaler
我正在开展一个深度学习项目,在该项目中,我在预训练的 Wide ResNet 上添加了几个线性层,以及我正在使用的另一种技术。 我的问题是我是否构建
遇到“TypeError:'<' not supported between instances of 'Tensor' and 'list'" when going through dataset
我正在复制ResNet(来源:https://arxiv.org/abs/1512.03385)。 我遇到了错误“TypeError: '<' not supported between instances of 'Tensor' and 'list'" when trying to go through
AttributeError:使用“ImageDataGenerator”训练 DL 数据集时,“NoneType”对象没有属性“items”
我正在尝试使用迁移学习和包含 40,000 张图像的数据集来训练 resnet50 模型。 我使用 ImageDataGenerator 准备数据集,然后使用 flow_from_directory 制作
是否可以在 GPU 上加载 YOLO 模型一次并将其提供给多个 Python 进程?
我正在研究使用 YOLO 模型同时对多个视频/流执行对象检测。我使用 Pyt 中内置的多处理库设置了多个视频的处理...
OutOfMemoryError:在 Hugging Face Trainer 中使用compute_metrics 函数时 CUDA 内存不足
在模型评估期间将compute_metrics 函数与Hugging Face Trainer 结合使用时,我遇到了CUDA 内存不足错误。我的 GPU 在尝试计算
运行时错误:预期标量类型 Long 但发现 Float (Pytorch)
我已经尝试了很多次来修复,我也使用了function.py中的示例代码,然后我得到了相同的“损失”值。我该如何解决这个问题? 我的图书馆 将 matplotlib.pyplot 导入为 plt
我是机器学习的初学者,我面临这个问题。请给我提供简单的例子或内容,以便我能以最好的方式理解它。
我正在使用 Mac OS el capitán,我正在尝试遵循 OpenNMT pytorch 版本的快速入门教程。 在训练步骤中,我收到以下警告消息: OpenNMT-py/onmt/modules/
用户警告:使用与输入大小 (torch.Size([1, 1])) 不同的目标大小 (torch.Size([1]))
我有这个代码: 实际_loes_score_g =实际_loes_score_t.to(self.device,non_blocking = True) Predicted_loes_score_g = self.model(input_g) loss_func = nn.L1Loss() 损失_g = 损失_f...