我想使用 WSL、Ollama、Docker 和 Open-webui 在我的笔记本电脑上本地运行 phi3 模型。以下是我遵循的步骤:
安装了 WSL。 安装了奥拉玛。 使用 Ollama 拉取 phi3 模型。 安装了 Docker。 安装了 Open-webui。
我可以通过终端与模特聊天。但是,当我设置 open-webui 并尝试选择模型时,它没有出现在模型列表中。
我检查了以下内容,该型号仍然没有出现在列表中:
检查日志,我发现了这个:
2024-05-31 11:05:31 INFO:apps.ollama.main:get_all_models()
2024-05-31 11:05:31 ERROR:apps.ollama.main:Connection error: Cannot connect to host host.docker.internal:11434 ssl:default [Connection refused]
如何解决这个问题?任何帮助将不胜感激!
我在遵循一些教程后遇到了类似的问题,但后来我最终进入了 Open-WebUI 页面并使用了那里的命令:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
请注意,端口从 3000 更改为 8080,因此您需要使用 http://localhost:8080。