Цикл в рекуррентных нейронных сетях с тензорным потоком (детализация низкого уровня)
Для дидактики я хочу реализовать минимальный (низкий уровень) пример RNN/LSTM.
Каков текущий способ реализации рекуррентного цикла (для рекуррентных нейронных сетей) в тензорном потоке?
В прошлом реализация внутреннего тензорного потока использовала оператор сканирования (как в Theano) для рекуррентности (цикла) в статическом вычислительном графе. Новая реализация настолько неясна, что я не понимаю, как реализовано повторение, см. https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/rnn.py
По какой причине больше не использовать "сканирование"? "Сканирование" замедляется?
Что является лучшим способом для цикла в вычислительном графе?