Быстрая обработка правил в симуляции
Если у вас есть только несколько правил в моделировании дискретных событий, это не критично, но если у вас их много, и они могут мешать друг другу, и вы можете отследить, "где" и "где" они используются.
- Кто-нибудь знает, как получить приведенный ниже код так же быстро, как оригинальная функция?
- Есть ли лучшие варианты, чем
eval(parse(...)
?
Вот простой пример, который показывает, что я теряю коэффициент 100 в скорости. Предположим, вы запустили симуляцию, и одно (из многих правил): выберите состояния со временем меньше 5:
> a <- rnorm(100, 50, 10)
> print(summary(microbenchmark::microbenchmark(a[a < 5], times = 1000L, unit = "us")))
expr min lq mean median uq max neval
a[a < 5] 0.76 1.14 1.266745 1.141 1.52 11.404 1000
myfun <- function(a0) {
return(eval(parse(text = myrule)))
}
> myrule <- "a < a0" # The rule could be read from a file.
print(summary(microbenchmark::microbenchmark(a[myfun(5)], times = 1000L, unit = "us")))
expr min lq mean median uq max neval
a[myfun(5)] 137.61 140.271 145.6047 141.411 142.932 343.644 1000
Примечание: я не думаю, что мне нужен дополнительный пакет, который может эффективно вести бухгалтерский учет. Но если есть другие мнения, дайте мне знать...
1 ответ
Давайте профилируем это:
Rprof()
for (i in 1:1e4) a[myfun(5)]
Rprof(NULL)
summaryRprof()
#$by.self
# self.time self.pct total.time total.pct
#"parse" 0.36 69.23 0.48 92.31
#"structure" 0.04 7.69 0.06 11.54
#"myfun" 0.02 3.85 0.52 100.00
#"eval" 0.02 3.85 0.50 96.15
#"stopifnot" 0.02 3.85 0.06 11.54
#"%in%" 0.02 3.85 0.02 3.85
#"anyNA" 0.02 3.85 0.02 3.85
#"sys.parent" 0.02 3.85 0.02 3.85
#
#$by.total
# total.time total.pct self.time self.pct
#"myfun" 0.52 100.00 0.02 3.85
#"eval" 0.50 96.15 0.02 3.85
#"parse" 0.48 92.31 0.36 69.23
#"srcfilecopy" 0.12 23.08 0.00 0.00
#"structure" 0.06 11.54 0.04 7.69
#"stopifnot" 0.06 11.54 0.02 3.85
#".POSIXct" 0.06 11.54 0.00 0.00
#"Sys.time" 0.06 11.54 0.00 0.00
#"%in%" 0.02 3.85 0.02 3.85
#"anyNA" 0.02 3.85 0.02 3.85
#"sys.parent" 0.02 3.85 0.02 3.85
#"match.call" 0.02 3.85 0.00 0.00
#"sys.function" 0.02 3.85 0.00 0.00
Большую часть времени проводят в parse
, Мы можем подтвердить это с помощью теста:
microbenchmark(a[myfun(5)], times = 1000L, unit = "us")
#Unit: microseconds
# expr min lq mean median uq max neval
# a[myfun(5)] 67.347 69.141 72.12806 69.909 70.933 160.303 1000
a0 <- 5
microbenchmark(parse(text = myrule), times = 1000L, unit = "us")
#Unit: microseconds
# expr min lq mean median uq max neval
# parse(text = myrule) 62.483 64.275 64.99432 64.787 65.299 132.903 1000
Если чтение правил в виде текста из файла является жестким требованием, я не думаю, что есть способ ускорить это. Конечно, вы не должны повторно анализировать одно и то же правило, но я полагаю, что вы сейчас это делаете.
Отредактируйте в ответ на комментарий, предоставив дополнительные пояснения:
Вы должны хранить свои правила в виде выражений в кавычках (например, в списке, используя saveRDS
если они вам нужны как файл):
myrule1 <- quote(a < a0)
myfun1 <- function(rule, a, a0) {eval(rule)}
microbenchmark(a[myfun1(myrule1, a, 30)], times = 1000L, unit = "us")
#Unit: microseconds
# expr min lq mean median uq max neval
# a[myfun1(myrule1, a, 30)] 1.792 2.049 2.286815 2.304 2.305 30.217 1000
Для удобства вы можете сделать этот список выражений объектом S3 и создать красивый print
метод для того, чтобы получить лучший обзор.