Я только что создал ОЧЕНЬ большую нервную сеть, хотя и на очень мощном оборудовании, и представь себе мой шок и разочарование, когда я понял, что NeuralFit [] из пакета NeuralNetworks, похоже, использует только одно ядро и даже не в полной мере. Я был разбит сердцем. Должен ли я действительно писать всю реализацию NN с нуля? Или я пропустил что-то простое?Пакет Neural Networks в Wolfram Mathematica не параллелен?
Моя сеть взяла 200 входов для 2 скрытых слоев из 300 нейронов, чтобы произвести 100 выходов. Я понимаю, что мы говорим о триллионах вычислений, но до тех пор, пока я знаю, что мое оборудование - это слабое место, можно обновить. Он должен хорошо тренироваться с такой сетью, если остался один на некоторое время (4-гигабайтная 8-потоковая машина с 24 ГБ 2000 МГц памяти CL7 с дисками SSD-RAID-0 на SATA-III - я уверен).
Идеи? Предложения? Спасибо заранее за ваш вклад.
«шок», «разочарование», «убитый горем». Хм, звучит немного как реакция сверху, если вы спросите меня. Во всяком случае, мне интересно, можно ли легко распараллелить NN. При всех этих взаимосвязях, вероятно, потребуется большая связь между ядрами, которые будут иметь значительное влияние на скорость. –
Возможно, вы захотите прочитать этот блог (http://textanddatamining.blogspot.com/2011/11/buy-or-build-practical-example-to.html) о реализации NN с Mathematica –
"звучит немного как если бы вы спросили меня, - если вы платите деньги за пакет от компании с проверенным послужным списком ОЧЕНЬ высоких математических решений, а затем вы бросаете проблему реального мира, которая не может сделать ни одной итерации обучение в течение 24 часов, да, я бы сказал, что это хорошая причина немного эмоционально. :-) Кроме того, у меня есть страсть к тому, что я делаю, это не все номера для меня, и это не моя работа, это мой личный «ребенок». –