Максимальное количество словаря связано с размерами слов в модели Glove
Я реализовал модель Glove после реализации по этой ссылке https://github.com/stanfordnlp/GloVe/tree/master/src. Я указал максимальный параметр vocab как 100000000 при создании файла vocab.txt и размерности вектора слова как 100 при обучении модели и сгенерировал vectors.txt со 100 измерениями. Когда я пытаюсь оценить word_analogy.py из папки eval по вышеуказанной ссылке, я получаю следующую ошибку
File "C:\Users\JAYASHREE\Anaconda2\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 714, in runfile
execfile(filename, namespace)
File "C:\Users\JAYASHREE\Anaconda2\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 74, in execfile
exec(compile(scripttext, filename, 'exec'), glob, loc)
File "C:/Users/JAYASHREE/Documents/1 billion words/word_analogy.py", line 77, in <module>
W, vocab, ivocab = generate()
File "C:/Users/JAYASHREE/Documents/1 billion words/word_analogy.py", line 32, in generate
W[vocab[word], :] = v
ValueError: cannot copy sequence with size 66 to array axis with dimension 100
Я хочу знать, влияют ли параметры, указанные при создании файла словаря, на размеры файла векторов