创建一个获取JSON输入的tf.contrib.learn Estimator服务

问题描述 投票:0回答:3

我正在使用一些代码,我可以用来从张量流Estimator导出一个模型,它将JSON作为输入。我可以使用tf.Estimatortf.estimator.export.ServingInputReceiver一起工作,但对于tf.contrib.learn内置的模型,我找不到任何文档。有一个例子heretf.Example服务创建出口,但Example构造有点棘手。

tensorflow google-cloud-ml
3个回答
1
投票

要使用contrib估算器,您必须查看早期版本的示例。这是一个例子:

https://github.com/GoogleCloudPlatform/training-data-analyst/blob/85c57e4da2e7edeffbb6652636e3c65b313c568f/blogs/babyweight/babyweight/trainer/model.py

并不是说你正在返回一个输入函数ops。话虽如此,如果可以,我建议您迁移到tf.estimator。


0
投票

Cloud ML Engine示例qazxsw poi中有一些示例,例如qazxsw poi。

也就是说,您创建占位符并将它们传递给repository构造函数。最外层维度应为“无”以处理可变大小的批次。

this code

0
投票

查看ServingInputReceiver的一组示例,其中显示了如何在Cloud ML中使用tensorflow估算器来提供服务模型

码:

def build_receiver():
  x = tf.placeholder(tf.float32, size=[None])
  y = tf.placeholder(tf.int32, size=[None, 128, 128, 3])
  features = {'x': x, 'y': y}
  return tf.estimator.export.ServingInputReceiver(features, features)
© www.soinside.com 2019 - 2024. All rights reserved.