Теперь я имею дело с большим набором данных, и я хочу использовать параллельный расчет для ускорения процесса. WestGird - это канадская вычислительная система с кластерами с межсоединением.Распределение параллельных вычислений на основе MPI в R на WestGrid (файл pbs)
Я использую два пакета doSNOW
и parallel
для выполнения параллельных заданий. Мой вопрос в том, как я должен написать файл pbs
. Когда я отправляю задание с использованием qsub
, возникает ошибка: mpirun noticed that the job aborted, but has no info as to the process that caused that situation
.
Вот код R скрипт:
install.packages("fume_1.0.tar.gz")
library(fume)
library(foreach)
library(doSNOW)
load("spei03_df.rdata",.GlobalEnv)
cl <- makeCluster(mpi.universe.size(), type='MPI')
registerDoSNOW(cl)
MK_grid <-
foreach(i=1:6000, .packages="fume",.combine='rbind') %dopar% {
abc <- mkTrend(as.matrix(spei03_data)[i,])
data.frame(P_value=abc$`Corrected p.value`, Slope=abc$`Sen's Slope`*10,Zc=abc$Zc)
}
stopCluster(cl)
save(MK_grid,file="MK_grid.rdata")
mpi.exit()
Пакет "дымить", это загрузить из https://cran.r-project.org/src/contrib/Archive/fume/.
Вот файл ПБС:
#!/bin/bash
#PBS -l nodes=2:ppn=12
#PBS -l walltime=2:00:00
module load application/R/3.3.1
cd $PBS_O_WORKDIR
export OMP_NUM_THREADS=1
mpirun -np 1 -hostfile $PBS_NODEFILE R CMD BATCH Trend.R
Может кто-нибудь помочь? Большое спасибо.