我正在按照此教程将Ollama (http://localhost:11434/) 与AutoGPT (http://localhost:3000) 集成。但是,我在尝试连接时遇到以下错误:
Error calling LLM: [Errno 111] Connection refused
我保证:
错误详细信息:
连接被拒绝:确保 Ollama 正在运行并且主机地址正确(还要确保端口正确,默认为 11434)。
我发现了什么:
经过一番研究,我发现如果 AutoGPT 在 Docker 容器中运行,则可能是网络问题。 Docker经常隔离其网络,使其无法直接访问主机的服务。
解决方案:
不要使用
localhost
,而是在连接字符串中将其替换为 host.docker.internal
:
http://host.docker.internal:11434/
此解决方法在此 GitHub 问题中进行了讨论:Ollama Issue #703 - Comment。
问题:
host.docker.internal
是这种情况下的最佳解决方案吗?