nvidia 相关问题

一家美国全球科技公司,总部位于加利福尼亚州圣克拉拉,以其图形处理器(GPU)而闻名。

Windows 降低了我的显示器的分辨率

我不确定这是问这个问题的正确地方,但我真的很绝望。 最近,当我将 HDMI 电缆连接到外接显示器时,我的 Windows 遇到了这种奇怪的问题,

回答 1 投票 0

pytorch 2.5.1 nvidia 驱动程序 560.35.03 在 Debian 12 上不兼容问题

我在 Debian 12 机器上搞砸了驱动程序安装,曾经能够运行 Ollama 和 ComfyUI,但出现 python 错误: 用户警告:CUDA 初始化:CUDA 未知错误 - 这可能是由于

回答 1 投票 0

为什么运行 Llama 3.1 70B 模型时 GPU 利用率不足?

我已在我的系统上部署了 Llama 3.1 70B 和 Llama 3.1 8B,它非常适合 8B 型号。当我测试 70B 时,它没有充分利用 GPU,并且需要很长时间才能响应。这是

回答 1 投票 0

Anylogic 和 NVidia Omniverse 渲染

我正在尝试将我的 Anylogic 模型连接到 Omniverse,但是当我在“渲染模型”中添加路径和文件名后,“完成”按钮未启用,因此我无法渲染。做...

回答 1 投票 0

在数据中心节点找不到GPU设备

我刚开始寻找多节点数据中心的方法。下面的事情正在发生在我身上。 首先,我使用此答案中的程序来检查 CUDA 设备。我构建了它(我遇到了一些问题...

回答 1 投票 0

Ubuntu24.04 cudaGetDevice 失败

我的程序是这样的: #包括 int main() { 整数 ID = -1; cudaGetDevice(&id); if (id != cudaSuccess) std::cout << "Failed!"; return 0; } My o...

回答 1 投票 0

运行时错误:r.nvmlDeviceGetNvLinkRemoteDeviceType_内部断言失败于

我正在编写一个Python代码,用于训练分类器对样本进行分类(每个样本10个句子)。我正在使用具有附加层的 Sentence_Transformer 并在 Linux 上运行模型训练...

回答 1 投票 0

分配可执行内存并在CUDA中执行

我想在CUDA中分配可执行内存,在那里编写SASS/CUBIN代码,然后执行该代码。 在 Linux 系统的 CPU 上,这非常简单并且有详细的文档记录——只需

回答 1 投票 0

获取 ud_ep.c:278 致命:UD 端点 0x22fe520 到 <no debug data>:尝试使用 OpenMPI 和 UCX 进行 OSU 微基准测试时出现未处理的超时错误

我有几台带有一些网卡的服务器,我安装了 ompi、ucx 和 osu-microbenchmarks。我正在运行以下命令, mpirun --mca pml ucx --mca osc ucx --mca spml ucx --mca btl ^

回答 1 投票 0

将 Autogen 与 Nvidia NIM 上的 Llama 模型集成

我正在尝试为我的代理使用 Nividia“https://integrate.api.nvidia.com/v1”上的“meta/llama-3.1-8b-instruct”。 导入自动生成器 配置列表 = [ { “模型...

回答 1 投票 0

通过 DXGI FLIP SwapChain 强制使用独立翻转模式

我目前面临 DXGI 交换链 (DirectX 11) 的问题。我的 C++ 应用程序显示(实时)视频,我的目标是最大限度地减少延迟。我没有要处理的用户输入。 为了减少延迟我

回答 1 投票 0

使用 Python 后端从 Triton 推理服务器流式传输响应

我正在使用带有Python后端的Triton推理服务器,目前我发送gRPC请求。有谁知道我们如何使用 Python 后端进行流处理(例如模型响应),因为我不知道

回答 1 投票 0

检测显示器是否关机

我有一个信息亭类型的应用程序,如果液晶电视关闭,我需要收到通知,以便我可以惩罚某人。 我正在运行带有 nVidia 显卡和 nVidia 驱动程序的 Ubuntu 10.10。 电视...

回答 1 投票 0

为什么我在 CUDA 中的性能这么差?

我有Linux下的RTX 3050,原生NVidia驱动程序。同样的简单代码在 GPU 2.1GHz 上的执行速度比在 CPU 2.4GHz 上慢 10 倍。可能出了什么问题:驱动程序、编译器标志,或者这是正常的

回答 2 投票 0

在 pytorch 中,如何并行化(在 GPU 上)重复执行的一组布尔函数?

我有一组独立的布尔函数,并且(假设)可以并行执行。我想重复调用这些相同的函数。请参阅下面的代码,其中的输出...

回答 1 投票 0

cuFFT 分析问题

我正在尝试获取 cuFFT 库调用的分析数据,例如计划和执行。我正在使用 nvprof(命令行分析工具),带有“--print-api-trace”选项。它打印......的时间

回答 3 投票 0

如何使用 Go SDK 将 `--gpus all` 选项传递给 Docker?

我已经从 SDK 示例中了解了如何执行一些基本命令,例如运行容器、拉取图像、列出图像等。 我正在开发一个项目,需要在

回答 2 投票 0

有没有办法将您的应用程序标记为“不是游戏”以防止显示 GeForce Experience 叠加层?

创建 GPU 加速窗口时,Nvidia 的 GeForce Experience 喜欢注入其覆盖层并通知用户: 有没有办法自动向该软件表明您的程序...

回答 1 投票 0

如何理解nvmlDeviceGetProcessUtilization返回的SmUtil?

我正在编写一个程序来监视进程如何使用GPU,我发现了nvml提供的API,nvmlDeviceGetProcessUtilization。 根据此 API 的注释,它读取最近的使用情况...

回答 1 投票 0

我是CUDA新手,请帮忙 – 性能不佳

我有Linux下的RTX 3050,原生NVidia驱动程序。同样的简单代码在 GPU 2.1GHz 上的执行速度比在 CPU 2.4GHz 上慢 10 倍。可能出了什么问题:驱动程序、编译器标志,或者这是正常的

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.