Что означают `start_tokens` и`end_token` в `BeamSearchDecoder`

Я работаю над суммированием текста, а при декодировании использую декодер beamsearch.

Он запрашивает начало токена как один из входных аргументов. В описании документа тензорного потока (tf.contrib.seq2seq.BeamSearchDecoder) указан вектор batch_size.

Я не понимаю, так как токен EOS является только int. Это почему?

0 ответов

Другие вопросы по тегам