从 GPU 支持的角度来看,tensorflow/tensorflow 镜像与 nvidia/cuda docker 镜像有什么根本不同?我不关心例如Python 的东西。例如,我本以为 nvidia 映像已经包含 CUDA 和 cuDNN,那么为什么张量流映像似乎也安装了它?我这样问是为了指导用户如何在 Docker 容器之外使用我的库,或者制作我自己的最小映像。
更多背景
我想弄清楚运行 XLA CUDA PJRT 插件需要哪些依赖项。我可以让它与 Docker Hub 上的
tensorflow/tensorflow:latest-gpu
图像一起使用,该图像使用 this Dockerfile。该 Dockerfile 基于 nvidia/cuda:12.3.0-base-ubuntu22.04
镜像。我的工作流程因该容器而失败,并出现错误 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR
。该图像的 runtime
和 devel
版本也失败。
除了软件包版本不同之外,TensorFlow 映像还安装了 TensorRT 软件包。
带有 TensorRT 的 Nvidia 镜像可以在 Nvidia 容器注册表中找到,例如
nvcr.io/nvidia/tensorrt:24.04-py3