Ошибка модели Spacy 3 не на английском языке. Не удается найти модель corpus/de_vectors с помощью nlp.initialize.

В Spacy 3.0 я попытался установить немецкую модель с:

python -m spacy загрузить de_core_news_lg

а также уже пробовал:

pip install https://github.com/explosion/spacy-models/releases/download/de_core_news_lg-3.0.0/de_core_news_lg-3.0.0.tar.gz

Я попытался упростить свой код, чтобы вы могли воспроизвести проблему следующим образом:

      import spacy
#import de_core_news_lg
nlp = spacy.load('de_core_news_lg')
nlp.initialize()

Импорт de_core_news_lg я тоже пытался включить, поскольку видел его где-то еще. Но и это не сработало.

Я получаю следующую ошибку:

      Traceback (most recent call last):
  File "error_test.py", line 5, in <module>
    nlp.initialize()
  File "/home/z01/nlp_learn/statbot/.statbot/lib/python3.8/site-packages/spacy/language.py", line 1225, in initialize
    init_vocab(
  File "/home/z01/nlp_learn/statbot/.statbot/lib/python3.8/site-packages/spacy/training/initialize.py", line 112, in init_vocab
    load_vectors_into_model(nlp, vectors)
  File "/home/z01/nlp_learn/statbot/.statbot/lib/python3.8/site-packages/spacy/training/initialize.py", line 122, in load_vectors_into_model
    vectors_nlp = load_model(name)
  File "/home/z01/nlp_learn/statbot/.statbot/lib/python3.8/site-packages/spacy/util.py", line 329, in load_model
    raise IOError(Errors.E050.format(name=name))
OSError: [E050] Can't find model 'corpus/de_vectors'. It doesn't seem to be a Python package or a valid path to a data directory.

Я даже пытался установить модель вне виртуальной среды. Я также попытался запустить его как файл .py, а также в блокноте jupyter.

0 ответов

Другие вопросы по тегам