无法通过WSL和Docker在open-webui中加载Phi3模型

问题描述 投票:0回答:1

我想使用 WSL、Ollama、Docker 和 Open-webui 在我的笔记本电脑上本地运行 phi3 模型。以下是我遵循的步骤:

安装了 WSL。 安装了奥拉玛。 使用 Ollama 拉取 phi3 模型。 安装了 Docker。 安装了 Open-webui。

我可以通过终端与模特聊天。但是,当我设置 open-webui 并尝试选择模型时,它没有出现在模型列表中。

我检查了以下内容,该型号仍然没有出现在列表中:

  • 型号 phi3 已在终端中列出并正常工作。
  • Docker 运行正常。
  • 我已经重新启动了 Docker 和 open-webui 服务。

检查日志,我发现了这个:

2024-05-31 11:05:31 INFO:apps.ollama.main:get_all_models()
2024-05-31 11:05:31 ERROR:apps.ollama.main:Connection error: Cannot connect to host host.docker.internal:11434 ssl:default [Connection refused]

如何解决这个问题?任何帮助将不胜感激!

localhost windows-subsystem-for-linux large-language-model webui ollama
1个回答
0
投票

我在遵循一些教程后遇到了类似的问题,但后来我最终进入了 Open-WebUI 页面并使用了那里的命令:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

请注意,端口从 3000 更改为 8080,因此您需要使用 http://localhost:8080。

© www.soinside.com 2019 - 2024. All rights reserved.