tensorflow-serving 相关问题

TensorFlow Serving是一种灵活的高性能服务系统,适用于机器学习模型,专为生产环境而设计。 TensorFlow服务可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 TensorFlow Serving提供与TensorFlow模型的开箱即用集成,但可以轻松扩展以提供其他类型的模型和数据。

variable_ops_scope和variable_scope有什么区别?

在TensorFlow中,有两个作用域函数:variable_ops_scope和variable_scope。第一个签名如下:variable_op_scope(values,name_or_scope,default_name,initializer,...

回答 1 投票 1

运行docker容器错误:找不到可服务模型的基本路径/ models / model

我尝试使用docker映像运行docker容器时遇到问题:tensorflow / serving。我运行cmd:docker run --name = tf_serving -it tensorflow / serving结果是:2019-10-28 04:...

回答 1 投票 0

curl不适用于Windows,但适用于Mac OSX

我是tensorflow和window的新手,我将curl发送到Linux上的tensorflow服务器,并且在OSX上可以使用。 curl -d'{“ instances”:[{“ image”:{“ b64”:“'” $(base64 ./test_input.png)“'”}}}}''-X POST http:// ...

回答 1 投票 0

tensorflow-serving给我一个从命令行运行的相同模型的“ ffeed and fetched”错误

当我使用save_model_cli运行预测时,它会正确执行,但是当我尝试通过tensorflow-serving运行它时,相同的输入给我一个错误。它告诉我一个项目正在被喂食,并且...

回答 1 投票 0

如何从提供的TensorFlow模型中获取元数据?

我有一些使用TensorFlow服务运行的模型,我希望这些模型可以自我描述,这样我们调用它们的服务不需要直接嵌入输入大小之类的东西。 (例如,...

回答 1 投票 0

Tensorflow服务-找不到:操作类型未注册'GatherTree'

我只是一个新手。在这种情况下,我在服务tensorflow模型时遇到问题:I.使用此http://opennmt.net/OpenNMT-tf/quickstart.html训练模型。二。为模型提供以下服务...

回答 1 投票 0

使用张量流服务时的数据处理(Docker / Kubernetes)

我希望托管5个深度学习模型,其中需要进行数据预处理/后处理。使用TF服务(和Kubernetes管理容器)托管每个模型似乎很简单,...

回答 2 投票 1

TensorFlow Serving是否正式支持TF2.0中的所有模型

从tensorflow服务的发布历史来看,最新版本是1.14.0。它使用的是TensorFlow 1.14.0。我找不到使用TensorFlow 2.0的发行版本。我想知道TFServing ...

回答 1 投票 0

[部署keras模型使用tensorflow服务获得了501服务器错误:未针对url实现:http:// localhost:8501 / v1 / models / genre:predict

我使用SavedModelBuilder将keras .h5模型保存为.pb。在使用tensorflow / serving:1.14.0的docker映像部署我的模型后,当我运行预测过程时,我得到了“ requests.exceptions.HTTPError:501 ...

回答 1 投票 0

TF-如何正确设置模型签名以便与Docker一起使用?

我正在尝试了解如何设置用于与docker服务的TF模型。我负责安装docker,我知道如何将训练有素的模型导出为.pb。我不明白的是如何正确定义...

回答 1 投票 0

[对象检测模型-tensorflow服务-部署k8s:需要3-4秒的时间]]

我有一个TensorFlow对象检测模型,与TensorFlow服务一起使用,并已部署到Azure Kubernetes群集中。我使用了具有TensorFlow / serving:1.12.3:gpu版本的Nvidia K80 GPU设备。...

回答 1 投票 0

如何将TensorFlow用作Azure容器实例并传递docker命令

我通常使用以下命令运行TensorFlow Serving Docker镜像:docker run -p 8500:8500 \ --mount type = bind,source = / mnt / docker / models,target = / models \ --mount type = bind,source = / mnt / docker / configs / ...

回答 1 投票 1

在使用TF 2.0的Tensorflow / Keras模型中使用嵌入层问题

我按照TF初学者教程之一的步骤创建了一个简单的分类模型。它们是以下内容:从__future__导入absolute_import,division,print_function,...

回答 2 投票 7


Tensorflow服务类型:对象不是预期的类型:uint8

因此,我正在尝试通过张量流服务为COCO服务,如果我检查模型,则会得到以下信息:signature_def ['serving_default']:给定的SavedModel SignatureDef包含以下输入:...

回答 1 投票 0

tf.estimator服务函数失败

我正在使用tf.estimator训练并服务我的张量流模型。培训已按预期完成,但无法提供服务。我将数据读取为TFRecordDataset。我的解析函数应用了...

回答 1 投票 0

Tensorflow服务-同一模型的更多名称

我想将两个不同的URL重定向到同一模型请求,这样就无需创建另一个base_path或版本。如果我将配置文件写为波纹管,是否将模型缓存两次?模型....

回答 1 投票 0

Docker容器是否未列出我提取的容器?

我拉docker-for-windows Windows Linux容器PS C:\ WINDOWS \ system32中的tensorflow / serving> docker pull tensorflow / serving使用默认标签:最新最新:从tensorflow / serving摘要中提取:...

回答 2 投票 0

Tensorflow服务示例是否应具有10%的错误率?

我遵循了文档,首先构建了一个优化的可服务二进制文件,然后测试了开发环境,然后得出推断错误率:10.4%是否期望重新安装发行版本的...

回答 2 投票 1

使用docker服务多个张量流模型

已经看过这个github问题和这个stackoverflow帖子,我希望这会简单地起作用。似乎传入环境变量MODEL_CONFIG_FILE似乎没有任何影响。我正在运行此...

回答 3 投票 6

© www.soinside.com 2019 - 2024. All rights reserved.