我正在使用 langchain 和 Ollama 推理制作一个聊天机器人,但经过一些研究,我看到了一些不同的模块导入,例如:
from langchain.llms.ollama import Ollama
model = Ollama(model="llama3")
另一个例子:
from langchain_community.llms import Ollama
ollama = Ollama(model="llama3")
另一个例子:
from langchain_ollama import ChatOllama
llm = ChatOllama(model="llama3")
另一个例子:
from langchain.llms import Ollama
llm = Ollama(model="llama3")
也许还有我错过的另一个模块
那么有什么区别呢?我应该使用哪一个?
根据我的理解,差异在于模型的目标。例如。
以下具体针对
chat completion
>
https://python.langchain.com/v0.2/docs/integrations/chat/ollama/
这是
text completion
的型号列表 >
https://python.langchain.com/v0.2/docs/integrations/llms/ollama/
有关更多详细信息,请检查此 > https://python.langchain.com/v0.2/docs/concepts/#llms
哪里有解释
纯文本输入/文本输出法学硕士往往年龄较大或级别较低。许多流行的模型最好用作聊天完成模型,即使对于非聊天用例也是如此。