继Azure市场中的Meta Llama 2 7B产品之后,我将其部署在azure ai服务中。部署后,我得到了类似的端点
https://mydemo-llama-serverless.eastus2.inference.ai.azure.com
我已经为我的 Azure AI 启用了专用端点,但这些端点可以为域
privatelink.api.azureml.ms
和 privatelink.notebooks.azure.net
提供专用端点,但是我的即用即付部署的域为 inference.ai.azure.com
,即仍然公开。
问题: 如何将即用即付模型部署的推理端点设置为私有?
如果答案尚未得到支持,有人可以指导我解决任何解决方法,或者我们何时可以期待此功能?
我们必须等到 2024 年 5 月底。