2016-12-27 16 views
2

IM следующего MNIST SoftMax учебники https://www.tensorflow.org/tutorials/mnist/beginners/в tensorflow MNIST SoftMax учебника, функция SoftMax не используется

Вслед за документом, модель должна быть

y = tf.nn.softmax(tf.matmul(x, W) + b) 

, но в исходном образце коды, как у может см.

# Create the model 
x = tf.placeholder(tf.float32, [None, 784]) 
W = tf.Variable(tf.zeros([784, 10])) 
b = tf.Variable(tf.zeros([10])) 
y = tf.matmul(x, W) + b 

softmax не используется. Я думаю, что это должно быть изменена

y = tf.nn.softmax(tf.matmul(x, W) + b) 

Я полагаю, что, в функции тестирования он использует Argmax поэтому он не должен быть нормализован до 0 ~ 1,0 значения. Но это может вызвать некоторую путаницу для разработчиков.

как идея на этом?

ответ

2

используется Софтмакс, строка 57:

# So here we use tf.nn.softmax_cross_entropy_with_logits on the raw 
# outputs of 'y', and then average across the batch. 
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_)) 

См softmax_cross_entropy_with_logits для более подробной информации.

 Смежные вопросы

  • Нет связанных вопросов^_^