将 Ollama 与 AutoGPT 一起使用时连接被拒绝([Errno 111])

问题描述 投票:0回答:1

我正在按照此教程将Ollama (http://localhost:11434/) 与AutoGPT (http://localhost:3000) 集成。但是,我在尝试连接时遇到以下错误:

Error calling LLM: [Errno 111] Connection refused  

我保证:

  • 奥拉马正在奔跑。
  • 主机和端口正确(Ollama 默认端口 11434)。

错误详细信息:

连接被拒绝:确保 Ollama 正在运行并且主机地址正确(还要确保端口正确,默认为 11434)。

ollama autogpt
1个回答
0
投票

我发现了什么:

经过一番研究,我发现如果 AutoGPT 在 Docker 容器中运行,则可能是网络问题。 Docker经常隔离其网络,使其无法直接访问主机的服务。

解决方案:
不要使用

localhost
,而是在连接字符串中将其替换为
host.docker.internal

http://host.docker.internal:11434/

此解决方法在此 GitHub 问题中进行了讨论:Ollama Issue #703 - Comment

问题:

  1. 使用
    host.docker.internal
    是这种情况下的最佳解决方案吗?
  2. 是否有其他网络配置或最佳实践可以使 AutoGPT 与 Ollama 无缝协作?
© www.soinside.com 2019 - 2024. All rights reserved.