Буфер для стабилизации GAN в парадигме Tensor2Tensor / Estimator
Я хотел бы стабилизировать обучение GAN, поддерживая историю сгенерированных примеров, которые будут по-прежнему подаваться на дискриминатор вместе с текущим G(x) для предотвращения чрезмерного соответствия D текущей версии G.
Я также хотел бы сделать это в рамках парадигмы Tensor2Tensor, Estimator и MonitoredTrainingSession, учитывая их преимущества (например, мониторинг, распределение, устройства и т. Д.).
Таким образом, решение не кажется таким простым, как при написании учебного цикла сеанса, который может просто вернуть G(x) из sess.run() и объединить их с примерами для последующей итерации.
Кажется, одно хорошее решение состоит в том, чтобы использовать tf.RandomShuffleQueue, который имел бы дополнительное преимущество в поддержании распределения G(x) в течение всей истории G.
У кого-нибудь есть идея получше?