Разбить данные для смущающе параллельно с R?

У меня есть большой RDS-файл, с которым я хочу работать параллельно, используя R. Этот файл занимает 7,3 ГБ оперативной памяти при загрузке.

Если я попытаюсь использовать много ядер, R вылетает, потому что ему не хватает памяти. Есть ли способ заставить mclapply использовать разделяемую память вместо копирования объекта?

Это код, который у меня есть:

results <- readRDS('ResultsICC.RDS')

rand <- 0
Icc <- c(.5, 1, 1.5)
n <- c(.1, .5, 1)
phi <- c(0, .5, 1)
parameterSettings <- expand.grid(rand=rand, Icc=Icc, n=n, phi=phi)

rr <- list()
Ns <- results[[1]][[1]][[2]][,c('Country', 'n')]
EstimatedBestPFiveArmRaw <- matrix(NA, 26, 1000)
EstimatedBestP <- matrix(NA, 26, 1000)


outterloop <- function(dataIN){
  for(k in 1:1000){ #1000
    best <- dataIN[[k]][[2]]
    EstimatedBestPFiveArmRaw[,k] <- rep(weighted.mean(best$estimatedBestPFiveArmRaw, best$n), 26) 
    pHat <- dataIN[[k]][[3]]  
    best <- Ns
    best$estimatedBest <- best$estimateBestP <- NA
    for(j in 1:26){ #26
      best$estimatedBest <- sapply(split(pHat[,paste0('cohort', j+1, 'pHat')], pHat$Country), 
                                   which.max)
      for(i in 1:nrow(best)) #nrow(best)
        best$estimatedBestP[i] <- pHat$p[pHat$Country==best$Country[i] &
                                           pHat$treatNum==best$estimatedBest[i]]  
      EstimatedBestP[j, k] <- weighted.mean(best$estimatedBestP, best$n)
    }
    rr <- (EstimatedBestP/EstimatedBestPFiveArmRaw-1)*100
  }
  return(rr)
}
library(parallel)
rr <- mclapply(X = results, FUN = outterloop, mc.cores = 27, mc.preschedule = T)

Я запускаю это в Linux-коробке с 32 ядрами и 64 ГБ оперативной памяти.

Спасибо!

0 ответов

Другие вопросы по тегам