可以为tensorflow的DNNClassifier固定估计器自定义输出层的激活功能,但是没有有关隐藏层默认激活功能的文档...这是ReLu吗?它是可定制的吗?
实例化activation_fn
时,可以通过向DNNClassifier
参数分配新的激活函数来修改隐藏层的激活函数。
classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns,
hidden_units=[10, 20, 10],
activation_fn=tf.nn.sigmoid, # default value is relu
n_classes=3,
model_dir="/tmp/model")