В последнее время я смотрю на обнаружение лиц, и многие из литературы заявляют, что их выходы имеют диапазон. Как это возможно? Я создал свою собственную сеть, и, похоже, она выводит только -1 или 1. Это потому, что я использую функцию активации Tanh? Я хочу, чтобы значения выводились от, скажем, от 0 до 1 в диапазоне, а не из двоичного вывода, поэтому я могу видеть, как «сильный» он считает вывод на самом деле лицом. Благодарю.Нейронная сеть для вывода не двоичных значений?
ответ
Ваша проблема может быть в диапазоне входных сигналов tanh. Обратите внимание, что сигмоид очень похож на tanh - его можно легко перегрузить большим числом. sigmoid (20) почти = 1 и сигмовидный (-20) равен 0 Сначала попробуйте нормализовать входной уровень входного слоя, чтобы иметь меньшие числа в скрытом слое (-ах), а также на выходном уровне.
Спасибо, не увидели твой ответ, когда я разместил свой. Я не знал, что это было ПОЧЕМУ, что это не сработало, так что это тоже приветствует. – Harry
Извините, из интереса, к какому уровню должны быть нормализованы входы? Я использовал -0,5 до 0,5. Видимо, это было прекрасно с Танхом, но ему это не нравится с Сигмоидом. – Harry
Да ... ваша функция активации определяет ваши значения. Если вы не ставите функцию активации на наши выходные нейроны, тогда она просто выведет сумму значений ... этот случай даст вам фактическую ошибку между вашим неравномерным выходом и неравномерными ожидаемыми значениями.
Конечно, если вы нормализуете свои ожидаемые значения, вы можете сохранить свою функцию активации.
ОК, поэтому я думаю, что происходило то, что функция Танха достигает 1 слишком рано. Я теперь переключился на функцию активации Sigmoid на выходном уровне, и я получаю гораздо более разнообразные ответы! :) Отлично. Благодарю.
Какой тип нейронета вы используете? –
Танх карты [-1,1], включая все промежуточные. Предоставьте подробную информацию о вашей реализации. Возможно, вам просто нужно выбрать .5 * (1 + tanh) для вашего желаемого диапазона. –
Ну, я использую библиотеку NeuronDotNet, расположенную по адресу: http://neurondotnet.freehostia.com/index.html Мои скрытые и выходные слои используют Tanh, с образцами обучения, установленными на 0,9 для лица и -0,9 для лица без лица , – Harry