我正在使用一些代码,我可以用来从张量流Estimator
导出一个模型,它将JSON作为输入。我可以使用tf.Estimator
与tf.estimator.export.ServingInputReceiver
一起工作,但对于tf.contrib.learn
内置的模型,我找不到任何文档。有一个例子here用tf.Example
服务创建出口,但Example
构造有点棘手。
要使用contrib估算器,您必须查看早期版本的示例。这是一个例子:
并不是说你正在返回一个输入函数ops。话虽如此,如果可以,我建议您迁移到tf.estimator。
Cloud ML Engine示例qazxsw poi中有一些示例,例如qazxsw poi。
也就是说,您创建占位符并将它们传递给repository构造函数。最外层维度应为“无”以处理可变大小的批次。
this code
查看ServingInputReceiver
的一组示例,其中显示了如何在Cloud ML中使用tensorflow估算器来提供服务模型
码:
def build_receiver():
x = tf.placeholder(tf.float32, size=[None])
y = tf.placeholder(tf.int32, size=[None, 128, 128, 3])
features = {'x': x, 'y': y}
return tf.estimator.export.ServingInputReceiver(features, features)