我正在使用带有lightning pytorch的数据版本控制(DVCLiveLogger)进行日志记录,我的问题是我的批量大小在所有步骤中都没有保持固定。所以每次它都是随机大小,如下所示。发生这种情况有原因吗?它们大约接近,但这不是我给数据模块的批量大小。
len(输入节点) 第1779章 len(输入节点) 第1769章 len(输入节点) 1761
谢谢你:)
我尝试通过闪电数据模块显式传递批量大小,但出现了同样的问题。
我从事 DVC/DVCLive 工作。您能否分享一个代码示例来了解如何设置批量大小并记录它? DVCLive 不应该做任何事情,除了保存有关训练的信息,因此它不应该影响批量大小,这应该来自您的数据加载器。