:)Производное ReLU в обратном переводе
Я собираюсь сделать backpropagation на нейронной сети, которая использует ReLU. В моем предыдущем проекте я сделал это в сети, использующей функцию активации Sigmoid, но теперь я немного запутался, так как у ReLU нет производной.
Вот image о том, как weight5 способствует общей ошибке. В этом примере out/net = a * (1 - a), если я использую сигмоидную функцию.
Что следует писать вместо «a * (1 - a)», чтобы сделать обратную проработку?
Спасибо.
Зависит от фактического выражения ReLU. Существует несколько ReLU, которые можно использовать. Тем не менее, это просто производная от функции ReLU по отношению к ее аргументу. И вы можете вычислить это либо вручную, либо используя, например. вольфрам Альфа. Или просто Google. – zegkljan