深度学习是一个机器学习领域,其目标是使用“深层”(由多层组成)的特殊神经网络架构来学习复杂的功能。此标记应用于有关深度学习体系结构实现的问题。一般机器学习问题应标记为“机器学习”。包括相关软件库的标签(例如,“keras”或“tensorflow”)是有帮助的。
AttributeError:使用“ImageDataGenerator”训练 DL 数据集时,“NoneType”对象没有属性“items”
我正在尝试使用迁移学习和包含 40,000 张图像的数据集来训练 resnet50 模型。 我使用 ImageDataGenerator 准备数据集,然后使用 flow_from_directory 制作
是否可以在 GPU 上加载 YOLO 模型一次并将其提供给多个 Python 进程?
我正在研究使用 YOLO 模型同时对多个视频/流执行对象检测。我使用 Pyt 中内置的多处理库设置了多个视频的处理...
OutOfMemoryError:在 Hugging Face Trainer 中使用compute_metrics 函数时 CUDA 内存不足
在模型评估期间将compute_metrics 函数与Hugging Face Trainer 结合使用时,我遇到了CUDA 内存不足错误。我的 GPU 在尝试计算
运行时错误:预期标量类型 Long 但发现 Float (Pytorch)
我已经尝试了很多次来修复,我也使用了function.py中的示例代码,然后我得到了相同的“损失”值。我该如何解决这个问题? 我的图书馆 将 matplotlib.pyplot 导入为 plt
我是机器学习的初学者,我面临这个问题。请给我提供简单的例子或内容,以便我能以最好的方式理解它。
我正在使用 Mac OS el capitán,我正在尝试遵循 OpenNMT pytorch 版本的快速入门教程。 在训练步骤中,我收到以下警告消息: OpenNMT-py/onmt/modules/
用户警告:使用与输入大小 (torch.Size([1, 1])) 不同的目标大小 (torch.Size([1]))
我有这个代码: 实际_loes_score_g =实际_loes_score_t.to(self.device,non_blocking = True) Predicted_loes_score_g = self.model(input_g) loss_func = nn.L1Loss() 损失_g = 损失_f...
Python 中的 Nifty50 数据科学项目出现错误 KeyError: 'Date'
我正在研究 Nifty50 数据集作为我的数据科学项目,但是当我尝试实现日期时间时会发生此错误。请帮我? 关键错误:“日期” nfty50_data\['日期'\] = pd.to_datetime(
IndexError:用作索引的张量必须是 long、byte 或 bool 张量
我仅在测试阶段遇到此错误,但在训练和验证阶段我没有遇到任何问题。 IndexError:用作索引的张量必须是 long、byte 或 bool 张量 我...
pytorch中有内置的位置编码吗?基本上,我希望能够指定编码的维度,然后能够获取每个 i 的第 i 个编码。
为什么从头开始训练的VGG在输入通道更改为三个以上时会抛出错误?
使用本关于如何从头开始实现 VGG19 的指南,我更改了输入形状但给出了错误。如何修改该层以接受具有 3 个以上通道的图像? 更改自: 输入形状...
我正在尝试使用神经风格迁移(NST)来可视化房屋内部改造的结果以及它根据用户的风格图像的外观。虽然我使用的代码给了我很好的re...
使用只有一个数据点的数据集来训练神经网络无法完美预测y变量?
我的样本X_trn和y_trn只有一项。我建立了一个神经网络来进行分类。我训练了模型,然后使用X_trn进行预测,X_trn的预测与y_trn不同。是吗
加载 MISTRAL LLM 进行微调时出错。 Qlora 无法工作,但可以正常工作
如果我尝试以这种方式加载模型: bnb_config = BitsAndBytesConfig( load_in_4bit=真, bnb_4bit_quant_type =“nf4”, bnb_4bit_use_double_quant=真) 模型 = AutoModelForCa...
我的自定义创建的网络使用线性层,中间带有丢失层。据我所知,在评估阶段,丢失层不处于活动状态,这通常会导致验证......
我已经通过 OneHotEncoder 对性别列进行了编码。 我只想对 Female[0] 列应用对数转换,但它对所有列应用对数转换,为什么? 代码: 将 pandas 导入为 p 来自sklearn。
客户数据 数据集通过图像提供,请在阅读问题之前参考所附图像 这里我通过 OneHotEncoder 对性别列进行了编码 问题:我确实想应用日志
huggingface Transformer模型计算损失的样本权重
我正在使用 Huggingface 的 Transformers 库在 Python 中训练 GPT2LMHeadModel。任务是下一个令牌预测。如果我理解正确的话,如果为这个对象提供了标签参数,那么它...
我目前面临一个问题。 我想知道应该如何反向传播以下模型中的损失函数。 这里重要的是所有蓝色部分都是 2 个输出所共有的,即
自定义注意力机制实现的输出与 torch.nn.MultiheadAttention 不匹配
我试图为我正在从事的项目创建自己的注意力功能。然而,当我将代码的输出和权重与 torch.nn.MultiheadAttention 的输出和权重进行比较时,我注意到......