Описание тега beam-search

This tag is for questions related to the heuristic search algorithm beam search.
1 ответ

Как использовать график сэмплирования в лучевом поисковом декодере в тензорном потоке.

Базовый декодер содержит параметр для добавления вспомогательного метода, который может быть помощником выборки по расписанию. Но декодирование поиска луча не содержит никакого вспомогательного параметра. В то время как в коде похоже, что использует…
0 ответов

Может ли алгоритм поиска луча с возвратом назад иметь разные числовые решения для разных значений луча

Я разрабатываю алгоритм поиска луча с бэктэкингом и, когда я тестировал алгоритм, я получил разное количество решений для разной длины луча. Поэтому я просто хочу убедиться, что это возможно в этом алгоритме, или для любой длины пучка число решений …
22 июл '16 в 06:54
0 ответов

TensorFlow BeamSearchDecoder выводит sample_id как (фактический sample_id+1)

Написал ли я собственный код (вместо использования стандартного сценария, представленного в TensorFlow): Да. На основе учебника по NMT я пишу специальный код для своей задачи. Платформа и распространение ОС (например, Linux Ubuntu 16.04): Linux Ubun…
0 ответов

Трудность в понимании результатов BeamSearchDecoder в Tensorflow 1.3

Я пытаюсь понять, как Tensorflow декодирует модель seq2seq, используя ее реализацию API tf.contrib.seq2seq.BeamSearchDecoder. В качестве теста я установил ширину луча моей модели seq2seq на 2 и посмотрел на результаты оценки (штраф за длину выключен…
0 ответов

Ускорение поиска луча с помощью seq2seq

У меня есть полностью рабочая модель внимания seq2seq с поиском луча, и она дает улучшенные результаты. Но это займет> 1 мин для логического вывода (размер партии 1024) с k=5 (мои гипотезы k), потому что ни один из них не распараллелен. Все происход…
15 фев '18 в 03:39
0 ответов

Как получить топ-k лучших последовательностей-кандидатов при использовании CRF для декодирования в тензорном потоке

CRF++ позволяет нам получить предельные вероятности для каждого тега (своего рода мера доверия для каждого выходного тега) и условно, вероятно, для вывода (мера доверия для всего вывода). % crf_test -v2 -m model test.data # 0.478113 Rockwell NNP B …
25 фев '18 в 09:22
2 ответа

Разница в ч / б Восхождение на холм и поиск Луча #beam = 1

Если мы рассмотрим поиск луча только с одним лучом, это будет похоже на восхождение на гору или есть какая-то другая разница? Согласно определению поиска луча, он отслеживает k лучших состояний в алгоритме восхождения на гору. Поэтому, если k = 1, у…
22 окт '15 в 06:12
0 ответов

Используйте Beam Search Decoder для обучения в Керасе

Я хотел знать, как использовать BeamSearchDecoder в Keras . Я попытался использовать его как слой, используя Lambda, а затем передал слой в качестве вывода модели. Но модель потерпела неудачу во время подгонки, сказав, что некоторые градиенты - нет.…
10 авг '18 в 09:32
1 ответ

CTC Beam Seach с использованием Tensorflow Backend

Я новичок в этом вопросе и извините, если сомнение кажется глупым. Документация keras и тензор потока предоставляют функцию ctc_decode, которая выполняет декодирование поиска луча ctc для выходных данных сети. В документации не приводится пример исп…
0 ответов

Реализация лучевого поиска для нетекстовых задач в тензорном потоке

Скажем, у меня есть ячейка РНН, обученная с помощью dynamic_rnn: rnn_cell = tf.contrib.rnn.BasicLSTMCell(num_units) # input_tensor: [batch_size, max_time, feature_size], each element of the last dimension is an sample # rnn outputs: [batch_size, max…
09 авг '18 в 04:00
0 ответов

В чем разница между механизмом tf.nn.ctc_beam_search_decoder и механизмом tf.contrib.seq2seq.BeamSearchDecoder?

Я строю модель seq2seq с тензорным потоком. Можете ли вы объяснить детали двух функций поиска луча? Спасибо. tf.nn.ctc.beam_search_decoder https://www.tensorflow.org/api_docs/python/tf/nn/ctc_beam_search_decoder tf.contrib.seq2seq.BeamSearchDecoder …
10 апр '18 в 05:38
0 ответов

Что означают `start_tokens` и`end_token` в `BeamSearchDecoder`

Я работаю над суммированием текста, а при декодировании использую декодер beamsearch. Он запрашивает начало токена как один из входных аргументов. В описании документа тензорного потока (tf.contrib.seq2seq.BeamSearchDecoder) указан вектор batch_size…
22 авг '18 в 08:21
1 ответ

Что означает переменная top_paths в ctc_beam_decoder в Tensorflow r-1.0?

Я потратил много времени на чтение документа этой функции, но до сих пор не имею четкого представления о том, как его использовать. У меня есть вход 3D-тензор формы [seq_length*batch_size*vocab_size] и я установил top_paths, И когда я распечатаю dec…
01 май '17 в 11:47
0 ответов

О Луче Поиск в seq2seq

Я борюсь с реализацией поиска луча и размышляю над следующей ситуацией. Предположим, что ширина луча равна 3. Тогда нам нужно будет поддерживать 3 наиболее вероятных варианта на каждом этапе декодирования (здесь этап декодирования означает t = 1, 2,…
25 июл '18 в 02:22
2 ответа

Алгоритм поиска луча для декодирования выходного сигнала RNN

Я пытался понять логику, используемую алгоритмом поиска луча в автоматическом распознавании речи для части декодирования. Документы, которыми я пытался следовать, - это непрерывное распознавание речи с большим словарным запасом в первом проходе с ис…
0 ответов

Как реализовать пользовательский поиск луча в TensorFlow?

В оригинальной статье Google SmartReply: Наш поиск ведется следующим образом. Во-первых, элементы R (множество всех возможных ответов) организованы в три. Затем мы проводим поиск луча слева направо, но сохраняем только те гипотезы, которые появляютс…
02 фев '17 в 00:10
1 ответ

В чем разница между жадным декодером RNN и декодером луча с k=1?

Учитывая вектор состояния, мы можем рекурсивно декодировать последовательность жадным образом, генерируя каждый выход последовательно, где каждое предсказание обусловлено предыдущим выходом. Недавно я прочитал статью, в которой описано использование…
14 сен '16 в 20:01
0 ответов

Как сделать для каждого набора элементов состояния lstm с помощью упаковщика внимания (собирать TensorArray)

Поскольку в AttentionWrapper.py из contrib/seq2seq, AttentionWrapperState имеет историю выравнивания, которая имеет тип TensorArray. Я хочу собирать при выполнении поиска луча, чтобы изменить порядок состояний, в настоящее время я не могу сделать эт…
11 окт '17 в 04:00
1 ответ

Как реализовать декодер поиска луча в конечной точке хостинга SageMaker?

Я создал модель SageMaker для нейронной сети Seq2Seq, а затем запустил конечную точку SageMaker: create_endpoint_config_response = sage.create_endpoint_config( EndpointConfigName = endpoint_config_name, ProductionVariants=[{ 'InstanceType':'ml.m4.xl…
31 июл '18 в 03:05
3 ответа

Пролог Программирование

Я сделал две программы на Прологе для головоломки nqueens, используя алгоритмы восхождения на гору и поиска луча. К сожалению, у меня нет опыта, чтобы проверить, правильны ли программы, и я в тупике. Я был бы признателен, если бы кто-то мог помочь м…
31 янв '11 в 14:39