Spacy | возможно ли убрать жестко заданный предел длин в фразеометре?
Я использую библиотеку Spacy на python3.6, у меня есть массив из 700 терминов и PharseMatcher, которые работают с ним.
Это прекрасно работало, когда у меня было 10-12 терминов, но когда я использовал много терминов, это выдает ошибку:
ValueError: [T001] Max length currently 10 for phrase matching
Когда я искал его в Интернете, все, что я нашел, это проблема проекта в Github.
Но кажется, что он закрыт без изменений, которые были внесены в проект. Прежде чем я попытаюсь написать классификацию самостоятельно без использования Spacy PhraseMatcher, Кто-нибудь знает, как преодолеть эту ошибку и использовать огромный список терминов при построении PharseMatcher, или, может быть, может порекомендовать лучший способ сделать такую вещь (классификация текста по темам) с помощью Spacy или любой другой библиотеки Python nlp / non-nlp?
Спасибо!