Разбить данные для смущающе параллельно с R?
У меня есть большой RDS-файл, с которым я хочу работать параллельно, используя R. Этот файл занимает 7,3 ГБ оперативной памяти при загрузке.
Если я попытаюсь использовать много ядер, R вылетает, потому что ему не хватает памяти. Есть ли способ заставить mclapply использовать разделяемую память вместо копирования объекта?
Это код, который у меня есть:
results <- readRDS('ResultsICC.RDS')
rand <- 0
Icc <- c(.5, 1, 1.5)
n <- c(.1, .5, 1)
phi <- c(0, .5, 1)
parameterSettings <- expand.grid(rand=rand, Icc=Icc, n=n, phi=phi)
rr <- list()
Ns <- results[[1]][[1]][[2]][,c('Country', 'n')]
EstimatedBestPFiveArmRaw <- matrix(NA, 26, 1000)
EstimatedBestP <- matrix(NA, 26, 1000)
outterloop <- function(dataIN){
for(k in 1:1000){ #1000
best <- dataIN[[k]][[2]]
EstimatedBestPFiveArmRaw[,k] <- rep(weighted.mean(best$estimatedBestPFiveArmRaw, best$n), 26)
pHat <- dataIN[[k]][[3]]
best <- Ns
best$estimatedBest <- best$estimateBestP <- NA
for(j in 1:26){ #26
best$estimatedBest <- sapply(split(pHat[,paste0('cohort', j+1, 'pHat')], pHat$Country),
which.max)
for(i in 1:nrow(best)) #nrow(best)
best$estimatedBestP[i] <- pHat$p[pHat$Country==best$Country[i] &
pHat$treatNum==best$estimatedBest[i]]
EstimatedBestP[j, k] <- weighted.mean(best$estimatedBestP, best$n)
}
rr <- (EstimatedBestP/EstimatedBestPFiveArmRaw-1)*100
}
return(rr)
}
library(parallel)
rr <- mclapply(X = results, FUN = outterloop, mc.cores = 27, mc.preschedule = T)
Я запускаю это в Linux-коробке с 32 ядрами и 64 ГБ оперативной памяти.
Спасибо!