我正在编写一个 python 脚本,它接受 bash 历史记录的输入,让您选择所需的行并将字符串作为输入传递给 LLM,以获得随后显示为标准输出的输出。 我已经看到,对于所有模型,以编程方式使用模型的一般代码如下:
client = OpenAI(
base_url="https://url",
api_key="my_key"
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
messages=[{
"role": "user",
"content": "Say this is a test",
}],
model="gpt-4o-mini",
)
print(response._request_id)
目前,我一直在使用 groq 的 Llama 3-70B,因为它们是免费的。 现在,我想使用 microsoft Copilot API,特别是 Github Copilot 模型。我还没有找到办法做到这一点。我已按照 API 网页上的 GitHub copilot 指南进行操作,但它似乎不是我正在寻找的内容。 有没有办法做到我所缺少的?
提前感谢您的时间和帮助。
我想有一种方法在我的 python 脚本中调用 GitHub Copilot 聊天响应
您可以编写自己的代码来连接到 GitHub Copilot API。使用新框架 Sensei 可以非常快速地完成此操作。在这里阅读更多信息:https://dev.to/blnkoff/sensei-simplify-api-client- Generation-b2e