PyTorch pack_padded_sequence работает очень медленно

Я строю архитектуру на основе ГРУ. Раньше я просто дополнял пакеты последовательностей и передавал их в ГРУ. Очевидно, это вносило некоторую небольшую ошибку в результаты, потому что это не совсем правильное действие на 100% (ГРУ не знает, что нужно останавливаться, когда оно достигает элементов заполнения).

Таким образом, я переключил наивную партию двухмерных дополненных последовательностей на pack_padded_sequence, чтобы не передавать посторонние элементы заполнения в ГРУ. Время обучения увеличилось как минимум в 3 раза. Я выполняю pack_padded_sequence на графическом процессоре, поэтому мне нужно проверить, возможно, это просто неэффективно делать на графическом процессоре.

Мы ценим любые предложения!

0 ответов

Другие вопросы по тегам