我正在尝试使用我通过 Inference API / Inference Endpoints 上传到 Hugging Face 的微调 Wav2Vec2 模型,但它似乎使用 Pipeline 来调用模型,这意味着它只会返回模型的最终预测,而不是来自模型的 logits。有没有办法让 Inference API 返回 logits 而不是最终的预测?
我在上一篇文章中看到您可以添加
inference:
parameters:
function_to_apply: none
到 README.md 使其不将函数应用于 logits 来返回预测,但这没有做任何事情
将
function_to_apply
传递到帖子请求中:
parameters = {
"function_to_apply": "none"
}
response = requests.post(API_URL, headers=headers, params=parameters, data=data)