Haskell бенчмаркинг / Оптимизация nf/whnf нестрогого сокращения

Я пытаюсь оптимизировать библиотеку, которая рассчитана на большой набор данных и затем применяет к нему различные операции. Теперь, когда библиотека работает, я хочу ее оптимизировать.

У меня сложилось впечатление, что нестрогая оценка позволяет GHC объединять операции так, чтобы данные итерировались только один раз, когда все функции записаны, так что аргументы упорядочены для упрощения сокращения. (И потенциально сократить количество операций, выполняемых на каждом уровне)

Чтобы проверить это, я написал следующий код:

import Criterion.Main

main = defaultMain
       [ bench "warmup (whnf)" $ whnf putStrLn "HelloWorld",
         bench "single (whnf)" $ whnf single [1..10000000],
         bench "single (nf)"   $ nf   single [1..10000000],
         bench "double (whnf)" $ whnf double [1..10000000],
         bench "double (nf)"   $ nf   double [1..10000000]]

single :: [Int] -> [Int]
single lst = fmap (* 2) lst

double :: [Int] -> [Int]             
double lst =  fmap (* 3) $ fmap (* 2) lst

Сравнительный анализ с использованием библиотеки Criterion Я получаю следующие результаты:

benchmarking warmup (whnf)
mean: 13.72408 ns, lb 13.63687 ns, ub 13.81438 ns, ci 0.950
std dev: 455.7039 ps, lb 409.6489 ps, ub 510.8538 ps, ci 0.950

benchmarking single (whnf)
mean: 15.88809 ns, lb 15.79157 ns, ub 15.99774 ns, ci 0.950
std dev: 527.8374 ps, lb 458.6027 ps, ub 644.3497 ps, ci 0.950

benchmarking single (nf)
collecting 100 samples, 1 iterations each, in estimated 107.0255 s
mean: 195.4457 ms, lb 195.0313 ms, ub 195.9297 ms, ci 0.950
std dev: 2.299726 ms, lb 2.006414 ms, ub 2.681129 ms, ci 0.950

benchmarking double (whnf)
mean: 15.24267 ns, lb 15.17950 ns, ub 15.33299 ns, ci 0.950
std dev: 384.3045 ps, lb 288.1722 ps, ub 507.9676 ps, ci 0.950

benchmarking double (nf)
collecting 100 samples, 1 iterations each, in estimated 20.56069 s
mean: 205.3217 ms, lb 204.9625 ms, ub 205.8897 ms, ci 0.950
std dev: 2.256761 ms, lb 1.590083 ms, ub 3.324734 ms, ci 0.950

Оптимизирует ли GHC функцию "double", чтобы список обрабатывался только один раз (* 6)? Результаты nf показывают, что это так, потому что в противном случае среднее время вычислений для "double" было бы вдвое больше, чем для "single"

Какая разница, что делает версию WHNF настолько быстрой? Я могу только предположить, что на самом деле ничего не выполняется (ИЛИ только первая итерация сокращения)

Я даже использую правильную терминологию?

1 ответ

Решение

Рассматривая ядро ​​(промежуточный код), сгенерированный GHC с использованием -ddump-simpl вариант, мы можем подтвердить, что GHC действительно объединяет два применения map в одну (используя -O2). Соответствующие части свалки:

Main.main10 :: GHC.Types.Int -> GHC.Types.Int
GblId
[Arity 1
 NoCafRefs]
Main.main10 =
  \ (x_a1Ru :: GHC.Types.Int) ->
    case x_a1Ru of _ { GHC.Types.I# x1_a1vc ->
    GHC.Types.I# (GHC.Prim.*# (GHC.Prim.+# x1_a1vc 2) 3)
    }

Main.double :: [GHC.Types.Int] -> [GHC.Types.Int]
GblId
[Arity 1
 NoCafRefs
 Str: DmdType S]
Main.double =
  \ (lst_a1gF :: [GHC.Types.Int]) ->
    GHC.Base.map @ GHC.Types.Int @ GHC.Types.Int Main.main10 lst_a1gF

Обратите внимание, что есть только одно использование GHC.Base.map в Main.double, ссылаясь на объединенную функцию Main.main10 который добавляет 2 и умножает на 3. Вероятно, это результат того, что GHC сначала Functor экземпляр для списков, так что fmap становится map, а затем применяя правило перезаписи, которое позволяет двум приложениям map быть объединенным, плюс еще несколько встроенных и других оптимизаций.

WHNF означает, что выражение вычисляется только для "самого внешнего" конструктора данных или лямбда-выражения. В этом случае это означает, что первый (:) конструктор. Вот почему это намного быстрее, так как работа почти не выполняется. Смотрите мой ответ на вопрос " Что такое нормальная форма слабой головы?" Больше подробностей.

Другие вопросы по тегам