0

Im пытается реализовать L2 норму слоя для сверточного нейронной сети, и им застрял на обратном проходе:L2 матрица построчно Нормализация градиент

def forward(self, inputs): 
    x, = inputs 
    self._norm = np.expand_dims(np.linalg.norm(x, ord=2, axis=1), axis=1) 
    z = np.divide(x, self._norm) 
    return z, 

def backward(self, inputs, grad_outputs): 
    x, = inputs 
    gz, = grad_outputs 
    gx = None # how to compute gradient here? 
    return gx, 

Как рассчитать дх? Моя первая догадка

gx = - gz * x/self._norm**2 

Но это, кажется, не так.

ответ

0

Правильный ответ

gx = np.divide(gz, self._norm) 

 Смежные вопросы

  • Нет связанных вопросов^_^