我准备基于保存的模型尝试我的TensorFlow服务REST API,并且想知道是否有一种简单的方法来生成我需要使用我的request发送的JSON实例(基于行)或输入(柱状)。
我的模型中有几千个功能,我不想手动输入JSON。有没有办法可以使用现有数据来提供我可以在预测API中引入的序列化数据?
我在整个管道中使用TFX(包括tf.Transform),所以我不确定我可以使用TFX内置的整齐方式。
saved_model_cli
的输出是这样的:
The given SavedModel SignatureDef contains the following input(s):
inputs['examples'] tensor_info:
dtype: DT_STRING
shape: (-1)
name: input_example_tensor:0
哪个不告诉我太多。
您可以使用Python REST客户端以编程方式进行调用,而不是手动编写请求。这是服务于github的tensorflow中的示例代码:
https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/resnet_client.py
您可以尝试以下代码:
examples = []
for _, row in Inputs.iterrows():
example = tf.train.Example()
for col, value in row.iteritems():
example.features.feature[col].float_list.value.append(value)
examples.append(example)
print(examples)
它的输出将是一个json,如下所示:
[features {
feature {
key: "PetalLength"
value {
float_list {
value: 5.900000095367432
}
}
}
feature {
key: "PetalWidth"
value {
float_list {
value: 2.0999999046325684
}
}
}
feature {
key: "SepalLength"
value {
float_list {
value: 7.099999904632568
}
}
}
feature {
key: "SepalWidth"
value {
float_list {
value: 3.0
}
}
}
}
]
然后,您可以使用以下命令执行推理:
curl -d '{"inputs":examples}' \
-X POST http://localhost:8501/v1/models/1554294699:predict