Максимальное количество словаря связано с размерами слов в модели Glove

Я реализовал модель Glove после реализации по этой ссылке https://github.com/stanfordnlp/GloVe/tree/master/src. Я указал максимальный параметр vocab как 100000000 при создании файла vocab.txt и размерности вектора слова как 100 при обучении модели и сгенерировал vectors.txt со 100 измерениями. Когда я пытаюсь оценить word_analogy.py из папки eval по вышеуказанной ссылке, я получаю следующую ошибку

  File "C:\Users\JAYASHREE\Anaconda2\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 714, in runfile
    execfile(filename, namespace)

  File "C:\Users\JAYASHREE\Anaconda2\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 74, in execfile
    exec(compile(scripttext, filename, 'exec'), glob, loc)

  File "C:/Users/JAYASHREE/Documents/1 billion words/word_analogy.py", line 77, in <module>
    W, vocab, ivocab = generate()

  File "C:/Users/JAYASHREE/Documents/1 billion words/word_analogy.py", line 32, in generate
    W[vocab[word], :] = v

ValueError: cannot copy sequence with size 66 to array axis with dimension 100

Я хочу знать, влияют ли параметры, указанные при создании файла словаря, на размеры файла векторов

0 ответов

Другие вопросы по тегам