Я смотрю демонстрацию машины SAS Viya. Он раскалывает некоторые алгоритмы машинного обучения друг против друга по заданному набору данных. Все модели производят почти одинаково хороший «подъем», как показано на диаграммах подъема на выходе.Почему лифт для нейронной сети, стабильный в демо SAS Viya?
Если вы настроите Обучение на выполнение меньшего подмножества данных; всего 0,002% от общего набора данных (данные раздела proc = & casdata partition samppct = 0.002;), большинство алгоритмов сталкиваются с проблемами, связанными с лифтом.
Но нейронная сеть все еще работает очень хорошо. Особенность или ошибка? Я мог представить, что сценарий не перезапускает сеть, но сложно угадывать только вызовы.