我在Langchain中有一条链,有一些输入参数: input_text:str -> 用于模板 max_tokens:float -> 对于 llm
我如何将这些变量/参数分配到链的正确部分?
我试过这个:
prompt: PromptTemplate = PromptTemplate.from_template("write a joke about: {input_text}")
llm = ChatOpenAI(model_name="gpt-4o",max_tokens=1)
chain = prompt | llm
result=chain.invoke({"max_tokens": 100, "input_text": "programming!"})
print(result.content)
如果运行此示例,您只会得到 1 个令牌作为答案,因此调用不会向 llm 提供 100。
但我希望它最多响应 100 个令牌。
期望: *为什么程序员更喜欢深色模式?
因为光会吸引虫子! 🐛💡*
根据我的理解,链的所有部分都有一些变量池,这些变量是由用户在开始时给出的,但也许这个假设是错误的。
我看到了一个答案,但我想寻找一些更简单/其他的方法来做到这一点。 文字
下面一行不是限制为一个吗?
ChatOpenAI(model_name="gpt-4o",max_tokens=1)
尝试将其更改为 100