Описание тега word-embedding
По вопросам о встраивании слов, технике моделирования языка при обработке естественного языка. Вопросы могут касаться конкретных методов, таких как Word2Vec, GloVe, FastText и т. Д., Или встраивания слов и их использования в библиотеках машинного обучения в целом.
2
ответа
Не английское вложение слова из английского вложения слова
Как я могу генерировать неанглийское (французское, испанское, итальянское) вложение слов из вложения английских слов? Каковы наилучшие способы создания высококачественного встраивания слов для неанглийских слов. Слова могут включать (samsung-galaxy-…
19 сен '18 в 09:34
1
ответ
Как использовать слой Keras Embedding, если имеется более 1 текстовых объектов
Я понимаю, как использовать слой Keras Embedded в случае, если есть отдельная текстовая функция, как в классификации обзора IMDB. Тем не менее, я не совсем понимаю, как использовать слои для встраивания, когда у меня есть проблема с классификацией, …
02 апр '18 в 05:28
1
ответ
Пример Keras на уровне слов с целочисленными последовательностями дает `ожидаемый ndim=3, найденный ndim=4`
Я пытаюсь реализовать пример уровня слова Keras в своем блоге, указанном в разделе " Бонус" -> Что, если я хочу использовать модель уровня слова с целочисленными последовательностями? Я пометил слои с именами, чтобы помочь мне позже соединить слои и…
13 авг '18 в 20:04
2
ответа
Как построить слой встраивания в Tensorflow RNN?
Я строю сеть RNN LSTM для классификации текстов на основе возраста писателей (бинарная классификация - молодой / взрослый). Похоже, сеть не учится и внезапно начинает перегружаться: Красный: поезд Синий: проверка Возможно, что представление данных н…
04 сен '18 в 14:10
1
ответ
Как повернуть word2vec на другое word2vec?
Я тренирую несколько моделей word2vec с Gensim. Каждый из word2vec будет иметь тот же параметр и размерность, но обучен с немного различными данными. Затем я хочу сравнить, как изменение данных повлияло на векторное представление некоторых слов. Но …
13 июл '18 в 17:35
3
ответа
Несколько встраиваемых слоев в керас
В случае предварительно обученных вложений мы можем указать их в качестве весов в слое внедрения keras. Для использования нескольких вложений подойдет ли указание нескольких слоев внедрения? т.е. embedding_layer1 = Embedding(len(word_index) + 1, EMB…
12 апр '18 в 20:33
1
ответ
Как обучают матрице встраивания в этом фрагменте кода?
Я следую коду задания Coursera, которое реализует тег NER с помощью двунаправленного LSTM. Но я не могу понять, как обновляется матрица встраивания. В следующем коде build_layers имеет переменную embedding_matrix_variable который действует на входе …
23 июн '18 в 06:49
0
ответов
Модель LSTM для анализа настроений
Я использую этот учебник: https://github.com/rvinas/sentiment_analysis_tensorflow, чтобы классифицировать короткие текстовые сообщения. В этом уроке прогноз сделан на ранее обученной модели, но я изо всех сил пытаюсь найти способ построить тестовые …
16 янв '18 в 20:41
0
ответов
Максимальное количество словаря связано с размерами слов в модели Glove
Я реализовал модель Glove после реализации по этой ссылке https://github.com/stanfordnlp/GloVe/tree/master/src. Я указал максимальный параметр vocab как 100000000 при создании файла vocab.txt и размерности вектора слова как 100 при обучении модели и…
18 авг '17 в 01:50
1
ответ
Встраивание слов как функции для классификации
В отношении классификации текста, в настоящее время общепринятым подходом является объединение (часто сумма или среднее) встраивание слов и использование результирующего вектора в качестве признаков. Существуют ли какие-либо справочные документы, ко…
06 мар '18 в 08:27
2
ответа
Тренируйте только некоторые вложения слов (Керас)
В моей модели я использую предварительно обученные вложения GloVe. Я хочу, чтобы они не тренировались, чтобы уменьшить количество параметров модели и избежать переобучения. Однако у меня есть специальный символ, вложение которого я хочу обучить. Исп…
27 фев '18 в 13:02
1
ответ
Вложение слов в тензорный поток (без предварительной подготовки)
Я новичок в tenorflow и пытаюсь взглянуть на различные примеры tenorflow, чтобы лучше понять его. Теперь я видел, как эта строка использовалась во многих примерах тензорного потока без упоминания какого-либо конкретного алгоритма встраивания, исполь…
21 сен '18 в 12:43
1
ответ
Ошибка при проверке входных кера модели при прогнозировании новых результатов
Я пытаюсь использовать модель keras, которую я построил на новых данных, за исключением того, что у меня есть ошибка ввода при попытке предсказать предсказания. Вот мой код для модели: def build_model(max_features, maxlen): """Build LSTM model""" mo…
17 авг '18 в 12:59
1
ответ
В чем разница между синтаксической аналогией и семантической аналогией?
В 15:10 этого видео о fastText упоминается синтаксическая аналогия и семантическая аналогия. Но я не уверен, в чем разница между ними. Может ли кто-нибудь помочь объяснить разницу с примерами?
20 янв '18 в 12:58
1
ответ
Проецировать слово на ось (Word2Vec)
Я использую Word2Vec для встраивания слов. Я хочу проецировать слово W на ось, которая представляет сходство слова W с двумя заданными словами W1 и W2 таким образом, чтобы мы могли видеть, какое слово W более похоже, например:
14 мар '18 в 23:23
0
ответов
Добавьте метаданные в вашу модель RNN после встраивания слоя с общими весами
У меня есть матрица встраивания с общими весами для текстовых потоков, после чего я хотел добавить метаданные в свою модель. Однако добавление нового слоя с использованием той же функции, что и для инициализации слоев модели, приводит к ошибкам изме…
16 мар '18 в 13:04
1
ответ
keras Двунаправленный слой с использованием 4-х мерных данных
Я разрабатываю модель Keras для классификации на основе данных статьи. У меня есть данные с 4 измерения следующим образом [batch, article_num, word_num, word embedding size] и я хочу, чтобы каждый (word_num, вложение слова) данные в керас двунаправл…
26 ноя '18 в 13:13
0
ответов
Использование GLOVEs pretrained glove.6B.50.txt в качестве основы для встраивания слов R
Я пытаюсь преобразовать текстовые данные в векторы с помощью GLOVE в r. Мой план состоял в том, чтобы усреднить векторы слов в предложении, но я не могу добраться до стадии векторизации слова. Я скачал файл glove.6b.50.txt и его родительский zip-фай…
17 ноя '18 в 05:18
1
ответ
Оценка модели Glove путем нахождения линейной алгебраической структуры слов
Я построил модель Glove на моем текстовом корпусе, используя приложение c после этой реализации https://github.com/stanfordnlp/GloVe/tree/master/src. Я хочу найти слово вложения таким образом, чтобы Если A относится к B, а C относится к D, то A-C+B …
15 авг '17 в 17:26
0
ответов
Почему у word2vec есть "а", а не "а", "из" и т. д.
Так что речь идет о предварительно подготовленном 300d w2v в новостях Google. Просто любопытно, почему "the" есть в списке словаря, а "a", "of", "and" и т. Д. Нет? В оригинальной статье упоминается, что наиболее часто встречающиеся слова менее инфор…
24 янв '18 в 11:05