Тестирование настраиваемого анализатора эластичного поиска - ключевые слова с разделителями по трубе
У меня есть этот индекс с pipe
как пользовательский анализатор. Когда я пытаюсь проверить это, он возвращает каждый символ, а не слова с разделителями.
Я пытаюсь построить для варианта использования, где моя строка ввода keywords
похоже: crockpot refried beans|corningware replacement|crockpot lids|recipe refried beans
и EL вернет спички после того, как он был взорван.
{
"keywords": {
"aliases": {
},
"mappings": {
"cloud": {
"properties": {
"keywords": {
"type": "text",
"analyzer": "pipe"
}
}
}
},
"settings": {
"index": {
"number_of_shards": "5",
"provided_name": "keywords",
"creation_date": "1513890909384",
"analysis": {
"analyzer": {
"pipe": {
"type": "custom",
"tokenizer": "pipe"
}
},
"tokenizer": {
"pipe": {
"pattern": "|",
"type": "pattern"
}
}
},
"number_of_replicas": "1",
"uuid": "DOLV_FBbSC2CBU4p7oT3yw",
"version": {
"created": "6000099"
}
}
}
}
}
Когда я пытаюсь проверить это, следуя этому руководству.
curl -XPOST 'http://localhost:9200/keywords/_analyze' -d '{
"analyzer": "pipe",
"text": "pipe|pipe2"
}'
Я получаю зачарованные результаты.
{
"tokens": [
{
"token": "p",
"start_offset": 0,
"end_offset": 1,
"type": "word",
"position": 0
},
{
"token": "i",
"start_offset": 1,
"end_offset": 2,
"type": "word",
"position": 1
},
{
"token": "p",
"start_offset": 2,
"end_offset": 3,
"type": "word",
"position": 2
},
{
"token": "e",
"start_offset": 3,
"end_offset": 4,
"type": "word",
"position": 3
},
1 ответ
Решение
Хорошая работа, ты почти у цели. Так как труба |
символ является зарезервированным символом в регулярных выражениях, вам нужно экранировать его следующим образом:
"tokenizer": {
"pipe": {
"pattern": "\\|", <--- change this
"type": "pattern"
}
}
И тогда ваш анализатор сработает и выдаст следующее:
{
"tokens": [
{
"token": "pipe",
"start_offset": 0,
"end_offset": 4,
"type": "word",
"position": 0
},
{
"token": "pipe2",
"start_offset": 5,
"end_offset": 10,
"type": "word",
"position": 1
}
]
}