Kibana+asticsearch разбивая сообщения на слова
Я хочу анализировать сообщения в моей панели kibana:
Я не хочу, чтобы это было токенизировано.
Я отправляю логи через filebeat и добавляю фильтры в logstash.
С помощью панели терминов Logstash + Kibana, не разбивая слов, я использую команду curl для обновления:
curl -XPUT https://localhost:9200/_template/filebeat -d '
{
"template": "filebeat-*",
"mappings": {
"type": {
"properties": {
"message": {
"type": "multi_field",
"fields": {
"message": {
"type": "string",
"index": "analyzed"
},
"untouched": {
"type": "string",
"index": "not_analyzed"
}
}
}
}
}
}'
Но ответ таков:
curl: (35) gnutls_handshake() failed: The TLS connection was non-properly terminated.
Что я делаю неправильно? Что мне нужно сделать, чтобы добиться желаемого результата.
Редактировать: проблема с вышеупомянутой командой curl использовала https
вместо http
, Но все равно это не работает.
1 ответ
Вы можете создать собственный анализатор и установить для его токенайзера значение "ключевое слово", как показано ниже.
{
"settings": {
"analysis": {
"analyzer":{
"my_analyzer":{
"tokenizer": {"keyword"},
"filter": {" Standard Token Filter", "Lower Case Token Filter", "Stop Token Filter"},
}
}
}
}
"mappings": ..........
}