2017-02-22 30 views
0

Я застрял с функцией активации nce_loss в модели word2vec. Я хочу, чтобы выяснить, какие функции активации она использует среди все этих перечисленных here:Какая функция активации используется в nce_loss?

К ним относятся гладкие нелинейность (сигмовидный, гиперболический тангенс, ELU, Softplus, и softsign), непрерывная, но не всюду дифференцируемая функция (РЕЛ, relu6, crelu и relu_x) и случайная регуляризация (исключение).

Я искал его в this function и в другом месте, но не получил никаких идей. Я полагаю, что это серия relu *. Любые подсказки, пожалуйста?

ответ

0

Ничего подобного. Он использует CrossEntropy.

+0

Но я прошу отличаться, копать глубже я считаю, что crossEntropy реализуется [с использованием РЕЛУ] (https://github.com/tensorflow/tensorflow/blob/131c3a67a7b8d27fd918e0bc5bddb3cb086de57e/tensorflow/python/ops/nn_impl.py# L169). – lerner