Описание тега beam-search
This tag is for questions related to the heuristic search algorithm beam search.
1
ответ
Как использовать график сэмплирования в лучевом поисковом декодере в тензорном потоке.
Базовый декодер содержит параметр для добавления вспомогательного метода, который может быть помощником выборки по расписанию. Но декодирование поиска луча не содержит никакого вспомогательного параметра. В то время как в коде похоже, что использует…
12 июл '17 в 13:40
0
ответов
Может ли алгоритм поиска луча с возвратом назад иметь разные числовые решения для разных значений луча
Я разрабатываю алгоритм поиска луча с бэктэкингом и, когда я тестировал алгоритм, я получил разное количество решений для разной длины луча. Поэтому я просто хочу убедиться, что это возможно в этом алгоритме, или для любой длины пучка число решений …
22 июл '16 в 06:54
0
ответов
TensorFlow BeamSearchDecoder выводит sample_id как (фактический sample_id+1)
Написал ли я собственный код (вместо использования стандартного сценария, представленного в TensorFlow): Да. На основе учебника по NMT я пишу специальный код для своей задачи. Платформа и распространение ОС (например, Linux Ubuntu 16.04): Linux Ubun…
05 фев '18 в 10:55
0
ответов
Трудность в понимании результатов BeamSearchDecoder в Tensorflow 1.3
Я пытаюсь понять, как Tensorflow декодирует модель seq2seq, используя ее реализацию API tf.contrib.seq2seq.BeamSearchDecoder. В качестве теста я установил ширину луча моей модели seq2seq на 2 и посмотрел на результаты оценки (штраф за длину выключен…
20 дек '17 в 10:30
0
ответов
Ускорение поиска луча с помощью seq2seq
У меня есть полностью рабочая модель внимания seq2seq с поиском луча, и она дает улучшенные результаты. Но это займет> 1 мин для логического вывода (размер партии 1024) с k=5 (мои гипотезы k), потому что ни один из них не распараллелен. Все происход…
15 фев '18 в 03:39
0
ответов
Как получить топ-k лучших последовательностей-кандидатов при использовании CRF для декодирования в тензорном потоке
CRF++ позволяет нам получить предельные вероятности для каждого тега (своего рода мера доверия для каждого выходного тега) и условно, вероятно, для вывода (мера доверия для всего вывода). % crf_test -v2 -m model test.data # 0.478113 Rockwell NNP B …
25 фев '18 в 09:22
2
ответа
Разница в ч / б Восхождение на холм и поиск Луча #beam = 1
Если мы рассмотрим поиск луча только с одним лучом, это будет похоже на восхождение на гору или есть какая-то другая разница? Согласно определению поиска луча, он отслеживает k лучших состояний в алгоритме восхождения на гору. Поэтому, если k = 1, у…
22 окт '15 в 06:12
0
ответов
Используйте Beam Search Decoder для обучения в Керасе
Я хотел знать, как использовать BeamSearchDecoder в Keras . Я попытался использовать его как слой, используя Lambda, а затем передал слой в качестве вывода модели. Но модель потерпела неудачу во время подгонки, сказав, что некоторые градиенты - нет.…
10 авг '18 в 09:32
1
ответ
CTC Beam Seach с использованием Tensorflow Backend
Я новичок в этом вопросе и извините, если сомнение кажется глупым. Документация keras и тензор потока предоставляют функцию ctc_decode, которая выполняет декодирование поиска луча ctc для выходных данных сети. В документации не приводится пример исп…
31 май '17 в 07:08
0
ответов
Реализация лучевого поиска для нетекстовых задач в тензорном потоке
Скажем, у меня есть ячейка РНН, обученная с помощью dynamic_rnn: rnn_cell = tf.contrib.rnn.BasicLSTMCell(num_units) # input_tensor: [batch_size, max_time, feature_size], each element of the last dimension is an sample # rnn outputs: [batch_size, max…
09 авг '18 в 04:00
0
ответов
В чем разница между механизмом tf.nn.ctc_beam_search_decoder и механизмом tf.contrib.seq2seq.BeamSearchDecoder?
Я строю модель seq2seq с тензорным потоком. Можете ли вы объяснить детали двух функций поиска луча? Спасибо. tf.nn.ctc.beam_search_decoder https://www.tensorflow.org/api_docs/python/tf/nn/ctc_beam_search_decoder tf.contrib.seq2seq.BeamSearchDecoder …
10 апр '18 в 05:38
0
ответов
Что означают `start_tokens` и`end_token` в `BeamSearchDecoder`
Я работаю над суммированием текста, а при декодировании использую декодер beamsearch. Он запрашивает начало токена как один из входных аргументов. В описании документа тензорного потока (tf.contrib.seq2seq.BeamSearchDecoder) указан вектор batch_size…
22 авг '18 в 08:21
1
ответ
Что означает переменная top_paths в ctc_beam_decoder в Tensorflow r-1.0?
Я потратил много времени на чтение документа этой функции, но до сих пор не имею четкого представления о том, как его использовать. У меня есть вход 3D-тензор формы [seq_length*batch_size*vocab_size] и я установил top_paths, И когда я распечатаю dec…
01 май '17 в 11:47
0
ответов
О Луче Поиск в seq2seq
Я борюсь с реализацией поиска луча и размышляю над следующей ситуацией. Предположим, что ширина луча равна 3. Тогда нам нужно будет поддерживать 3 наиболее вероятных варианта на каждом этапе декодирования (здесь этап декодирования означает t = 1, 2,…
25 июл '18 в 02:22
2
ответа
Алгоритм поиска луча для декодирования выходного сигнала RNN
Я пытался понять логику, используемую алгоритмом поиска луча в автоматическом распознавании речи для части декодирования. Документы, которыми я пытался следовать, - это непрерывное распознавание речи с большим словарным запасом в первом проходе с ис…
14 мар '17 в 17:47
0
ответов
Как реализовать пользовательский поиск луча в TensorFlow?
В оригинальной статье Google SmartReply: Наш поиск ведется следующим образом. Во-первых, элементы R (множество всех возможных ответов) организованы в три. Затем мы проводим поиск луча слева направо, но сохраняем только те гипотезы, которые появляютс…
02 фев '17 в 00:10
1
ответ
В чем разница между жадным декодером RNN и декодером луча с k=1?
Учитывая вектор состояния, мы можем рекурсивно декодировать последовательность жадным образом, генерируя каждый выход последовательно, где каждое предсказание обусловлено предыдущим выходом. Недавно я прочитал статью, в которой описано использование…
14 сен '16 в 20:01
0
ответов
Как сделать для каждого набора элементов состояния lstm с помощью упаковщика внимания (собирать TensorArray)
Поскольку в AttentionWrapper.py из contrib/seq2seq, AttentionWrapperState имеет историю выравнивания, которая имеет тип TensorArray. Я хочу собирать при выполнении поиска луча, чтобы изменить порядок состояний, в настоящее время я не могу сделать эт…
11 окт '17 в 04:00
1
ответ
Как реализовать декодер поиска луча в конечной точке хостинга SageMaker?
Я создал модель SageMaker для нейронной сети Seq2Seq, а затем запустил конечную точку SageMaker: create_endpoint_config_response = sage.create_endpoint_config( EndpointConfigName = endpoint_config_name, ProductionVariants=[{ 'InstanceType':'ml.m4.xl…
31 июл '18 в 03:05
3
ответа
Пролог Программирование
Я сделал две программы на Прологе для головоломки nqueens, используя алгоритмы восхождения на гору и поиска луча. К сожалению, у меня нет опыта, чтобы проверить, правильны ли программы, и я в тупике. Я был бы признателен, если бы кто-то мог помочь м…
31 янв '11 в 14:39