2015-10-30 4 views
0

Я принимаю введение в класс машинного обучения в школе, и все ANN, которые мы показывали, имеют входы, взвешенные и суммированные перед введением в функцию активации любого нейрона.В PyBrain, создавая искусственные нейронные сети, являются входы в нейрон, взвешенные и суммированные перед передачей в функцию активации?

Я создаю ANN для домашней работы, и мне было интересно, если это также делается автоматически в PyBrain?

ответ

0

Да. Различные узлы Pybrain предлагают наследовать функции активации через определенный тип. Обратитесь к документации здесь:

http://pybrain.org/docs/tutorial/netmodcon.html

При создании модулей вручную, можно определить тип функции активации используется. Pybrain поддерживает Sigmoid, Linear, Gaussian, Softmax, Tanh и некоторые другие, если память служит. Чтобы проверить это, создайте одноуровневую сеть и активируйте ее.

from pybrain.structure import SigmoidLayer 
module = SigmoidLayer(1) 
print module.activate([.05]) 
+0

Спасибо за ваш ответ. Я предполагаю сделать многослойный персептрон для домашней работы, и если я не ошибаюсь, персептроны содержат пошаговую функцию для их функций активации. Но в примере многослойного персептрона в документации используется сигмоид. http://pybrain.org/docs/tutorial/netmodcon.html – itsSLO

+0

Пошаговый не поддерживает backpropagation, и поэтому я не думаю, что он реализован в pybrain. Вам нужно будет написать обычную интеграцию NeuronLayer, которая использует порог, который я считаю. Ссылка: http://pybrain.org/docs/tutorial/extending-structure.html – Vaune