При выполнении случайного леса в последовательном режиме он использует 8 ГБ оперативной памяти в моей системе, при параллельном использовании он использует более чем в два раза большую RAM (18 ГБ). Как я могу сохранить его до 8 ГБ при параллельном выполнении? Вот код:Параллельные случайные леса с doSMP и foreach значительно увеличивают использование памяти (в Windows)
install.packages('foreach')
install.packages('doSMP')
install.packages('randomForest')
library('foreach')
library('doSMP')
library('randomForest')
NbrOfCores <- 8
workers <- startWorkers(NbrOfCores) # number of cores
registerDoSMP(workers)
getDoParName() # check name of parallel backend
getDoParVersion() # check version of parallel backend
getDoParWorkers() # check number of workers
#creating data and setting options for random forests
#if your run this please adapt it so it won't crash your system! This amount of data uses up to 18GB of RAM.
x <- matrix(runif(500000), 100000)
y <- gl(2, 50000)
#options
set.seed(1)
ntree=1000
ntree2 <- ntree/NbrOfCores
gc()
#running serialized version of random forests
system.time(
rf1 <- randomForest(x, y, ntree = ntree))
gc()
#running parallel version of random forests
system.time(
rf2 <- foreach(ntree = rep(ntree2, 8), .combine = combine, .packages = "randomForest") %dopar% randomForest(x, y, ntree = ntree))
Хорошее предложение, но мне нужна модель леса, чтобы иметь возможность делать прогнозы в будущем (т. Е. Мне нужно построить модель сейчас и забить новые данные позже). Что касается многоядерного пакета: это только для Unix (и я нахожусь в Windows, см. Мой вопрос). – user1134616
@ user1134616 Если это так, вы можете полагаться только на не-R случайных реализаций леса ... – mbq