Описание тега word-embedding

По вопросам о встраивании слов, технике моделирования языка при обработке естественного языка. Вопросы могут касаться конкретных методов, таких как Word2Vec, GloVe, FastText и т. Д., Или встраивания слов и их использования в библиотеках машинного обучения в целом.
2 ответа

Не английское вложение слова из английского вложения слова

Как я могу генерировать неанглийское (французское, испанское, итальянское) вложение слов из вложения английских слов? Каковы наилучшие способы создания высококачественного встраивания слов для неанглийских слов. Слова могут включать (samsung-galaxy-…
19 сен '18 в 09:34
1 ответ

Как использовать слой Keras Embedding, если имеется более 1 текстовых объектов

Я понимаю, как использовать слой Keras Embedded в случае, если есть отдельная текстовая функция, как в классификации обзора IMDB. Тем не менее, я не совсем понимаю, как использовать слои для встраивания, когда у меня есть проблема с классификацией, …
02 апр '18 в 05:28
1 ответ

Пример Keras на уровне слов с целочисленными последовательностями дает `ожидаемый ndim=3, найденный ndim=4`

Я пытаюсь реализовать пример уровня слова Keras в своем блоге, указанном в разделе " Бонус" -> Что, если я хочу использовать модель уровня слова с целочисленными последовательностями? Я пометил слои с именами, чтобы помочь мне позже соединить слои и…
2 ответа

Как построить слой встраивания в Tensorflow RNN?

Я строю сеть RNN LSTM для классификации текстов на основе возраста писателей (бинарная классификация - молодой / взрослый). Похоже, сеть не учится и внезапно начинает перегружаться: Красный: поезд Синий: проверка Возможно, что представление данных н…
04 сен '18 в 14:10
1 ответ

Как повернуть word2vec на другое word2vec?

Я тренирую несколько моделей word2vec с Gensim. Каждый из word2vec будет иметь тот же параметр и размерность, но обучен с немного различными данными. Затем я хочу сравнить, как изменение данных повлияло на векторное представление некоторых слов. Но …
13 июл '18 в 17:35
3 ответа

Несколько встраиваемых слоев в керас

В случае предварительно обученных вложений мы можем указать их в качестве весов в слое внедрения keras. Для использования нескольких вложений подойдет ли указание нескольких слоев внедрения? т.е. embedding_layer1 = Embedding(len(word_index) + 1, EMB…
12 апр '18 в 20:33
1 ответ

Как обучают матрице встраивания в этом фрагменте кода?

Я следую коду задания Coursera, которое реализует тег NER с помощью двунаправленного LSTM. Но я не могу понять, как обновляется матрица встраивания. В следующем коде build_layers имеет переменную embedding_matrix_variable который действует на входе …
23 июн '18 в 06:49
0 ответов

Модель LSTM для анализа настроений

Я использую этот учебник: https://github.com/rvinas/sentiment_analysis_tensorflow, чтобы классифицировать короткие текстовые сообщения. В этом уроке прогноз сделан на ранее обученной модели, но я изо всех сил пытаюсь найти способ построить тестовые …
16 янв '18 в 20:41
0 ответов

Максимальное количество словаря связано с размерами слов в модели Glove

Я реализовал модель Glove после реализации по этой ссылке https://github.com/stanfordnlp/GloVe/tree/master/src. Я указал максимальный параметр vocab как 100000000 при создании файла vocab.txt и размерности вектора слова как 100 при обучении модели и…
18 авг '17 в 01:50
1 ответ

Встраивание слов как функции для классификации

В отношении классификации текста, в настоящее время общепринятым подходом является объединение (часто сумма или среднее) встраивание слов и использование результирующего вектора в качестве признаков. Существуют ли какие-либо справочные документы, ко…
06 мар '18 в 08:27
2 ответа

Тренируйте только некоторые вложения слов (Керас)

В моей модели я использую предварительно обученные вложения GloVe. Я хочу, чтобы они не тренировались, чтобы уменьшить количество параметров модели и избежать переобучения. Однако у меня есть специальный символ, вложение которого я хочу обучить. Исп…
27 фев '18 в 13:02
1 ответ

Вложение слов в тензорный поток (без предварительной подготовки)

Я новичок в tenorflow и пытаюсь взглянуть на различные примеры tenorflow, чтобы лучше понять его. Теперь я видел, как эта строка использовалась во многих примерах тензорного потока без упоминания какого-либо конкретного алгоритма встраивания, исполь…
1 ответ

Ошибка при проверке входных кера модели при прогнозировании новых результатов

Я пытаюсь использовать модель keras, которую я построил на новых данных, за исключением того, что у меня есть ошибка ввода при попытке предсказать предсказания. Вот мой код для модели: def build_model(max_features, maxlen): """Build LSTM model""" mo…
1 ответ

В чем разница между синтаксической аналогией и семантической аналогией?

В 15:10 этого видео о fastText упоминается синтаксическая аналогия и семантическая аналогия. Но я не уверен, в чем разница между ними. Может ли кто-нибудь помочь объяснить разницу с примерами?
20 янв '18 в 12:58
1 ответ

Проецировать слово на ось (Word2Vec)

Я использую Word2Vec для встраивания слов. Я хочу проецировать слово W на ось, которая представляет сходство слова W с двумя заданными словами W1 и W2 таким образом, чтобы мы могли видеть, какое слово W более похоже, например:
14 мар '18 в 23:23
0 ответов

Добавьте метаданные в вашу модель RNN после встраивания слоя с общими весами

У меня есть матрица встраивания с общими весами для текстовых потоков, после чего я хотел добавить метаданные в свою модель. Однако добавление нового слоя с использованием той же функции, что и для инициализации слоев модели, приводит к ошибкам изме…
1 ответ

keras Двунаправленный слой с использованием 4-х мерных данных

Я разрабатываю модель Keras для классификации на основе данных статьи. У меня есть данные с 4 измерения следующим образом [batch, article_num, word_num, word embedding size] и я хочу, чтобы каждый (word_num, вложение слова) данные в керас двунаправл…
26 ноя '18 в 13:13
0 ответов

Использование GLOVEs pretrained glove.6B.50.txt в качестве основы для встраивания слов R

Я пытаюсь преобразовать текстовые данные в векторы с помощью GLOVE в r. Мой план состоял в том, чтобы усреднить векторы слов в предложении, но я не могу добраться до стадии векторизации слова. Я скачал файл glove.6b.50.txt и его родительский zip-фай…
17 ноя '18 в 05:18
1 ответ

Оценка модели Glove путем нахождения линейной алгебраической структуры слов

Я построил модель Glove на моем текстовом корпусе, используя приложение c после этой реализации https://github.com/stanfordnlp/GloVe/tree/master/src. Я хочу найти слово вложения таким образом, чтобы Если A относится к B, а C относится к D, то A-C+B …
15 авг '17 в 17:26
0 ответов

Почему у word2vec есть "а", а не "а", "из" и т. д.

Так что речь идет о предварительно подготовленном 300d w2v в новостях Google. Просто любопытно, почему "the" есть в списке словаря, а "a", "of", "and" и т. Д. Нет? В оригинальной статье упоминается, что наиболее часто встречающиеся слова менее инфор…
24 янв '18 в 11:05