使用输入参数参数化我的链的LLM部分

问题描述 投票:0回答:1

我在Langchain中有一条链,有一些输入参数: input_text:str -> 用于模板 max_tokens:float -> 对于 llm

我如何将这些变量/参数分配到链的正确部分?

我试过这个:

    
prompt: PromptTemplate = PromptTemplate.from_template("write a joke about: {input_text}")  
llm = ChatOpenAI(model_name="gpt-4o",max_tokens=1) 
chain = prompt | llm
result=chain.invoke({"max_tokens": 100, "input_text": "programming!"})
print(result.content)

如果运行此示例,您只会得到 1 个令牌作为答案,因此调用不会向 llm 提供 100。

但我希望它最多响应 100 个令牌。

期望: *为什么程序员更喜欢深色模式?

因为光会吸引虫子! 🐛💡*

根据我的理解,链的所有部分都有一些变量池,这些变量是由用户在开始时给出的,但也许这个假设是错误的。

我看到了一个答案,但我想寻找一些更简单/其他的方法来做到这一点。 文字

python langchain large-language-model chain
1个回答
0
投票

下面一行不是限制为一个吗?

ChatOpenAI(model_name="gpt-4o",max_tokens=1) 

尝试将其更改为 100

© www.soinside.com 2019 - 2024. All rights reserved.