Цикл в рекуррентных нейронных сетях с тензорным потоком (детализация низкого уровня)

Для дидактики я хочу реализовать минимальный (низкий уровень) пример RNN/LSTM.

Каков текущий способ реализации рекуррентного цикла (для рекуррентных нейронных сетей) в тензорном потоке?

В прошлом реализация внутреннего тензорного потока использовала оператор сканирования (как в Theano) для рекуррентности (цикла) в статическом вычислительном графе. Новая реализация настолько неясна, что я не понимаю, как реализовано повторение, см. https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/rnn.py

По какой причине больше не использовать "сканирование"? "Сканирование" замедляется?

Что является лучшим способом для цикла в вычислительном графе?

0 ответов

Другие вопросы по тегам