Kibana+asticsearch разбивая сообщения на слова

Я хочу анализировать сообщения в моей панели kibana: введите описание изображения здесь

Я не хочу, чтобы это было токенизировано.

Я отправляю логи через filebeat и добавляю фильтры в logstash.

С помощью панели терминов Logstash + Kibana, не разбивая слов, я использую команду curl для обновления:

curl -XPUT https://localhost:9200/_template/filebeat -d '
{
    "template": "filebeat-*",
    "mappings": {
        "type": {
            "properties": {
               "message": {
                  "type": "multi_field",
                  "fields": {
                     "message": {
                         "type": "string",
                         "index": "analyzed"
                     },
                     "untouched": {
                         "type": "string",
                         "index": "not_analyzed"
                     }
                 }
            }
        }
    }
}'

Но ответ таков:

curl: (35) gnutls_handshake() failed: The TLS connection was non-properly terminated.

Что я делаю неправильно? Что мне нужно сделать, чтобы добиться желаемого результата.

Редактировать: проблема с вышеупомянутой командой curl использовала https вместо http, Но все равно это не работает.

1 ответ

Вы можете создать собственный анализатор и установить для его токенайзера значение "ключевое слово", как показано ниже.

{
    "settings": {
        "analysis": {
             "analyzer":{
               "my_analyzer":{

                   "tokenizer":   {"keyword"},
                   "filter":      {" Standard Token Filter", "Lower Case Token Filter", "Stop Token Filter"},

                }
             }
        }
    }
    "mappings": ..........
}
Другие вопросы по тегам