Как найти часть слова с помощью ElasticSearch

Недавно я начал использовать ElasticSearch, и я не могу заставить его искать часть слова.

Пример. У меня есть три документа из моего куба, проиндексированного в ElasticSearch:

{
  "_id" : "1",
  "name" : "John Doeman",
  "function" : "Janitor"
}
{
  "_id" : "2",
  "name" : "Jane Doewoman",
  "function" : "Teacher"
}
{
  "_id" : "3",
  "name" : "Jimmy Jackal",
  "function" : "Student"
} 

Итак, теперь я хочу искать все документы, содержащие "Doe"

curl http://localhost:9200/my_idx/my_type/_search?q=Doe

Это не возвращает никаких обращений. Но если я ищу

curl http://localhost:9200/my_idx/my_type/_search?q=Doeman

Он возвращает один документ (John Doeman).

Я попытался настроить различные анализаторы и различные фильтры как свойства моего индекса. Я также попытался использовать полномасштабный запрос (например:

{
  "query": {
    "term": {
      "name": "Doe"
    }
  }
}

) Но ничего не работает.

Как я могу заставить ElasticSearch найти и John Doeman и Jane Doewoman, когда я ищу "Doe"?

UPDATE

Я попытался использовать токенизатор nGram и фильтр, как и предложил Игорь:

{
  "index": {
    "index": "my_idx",
    "type": "my_type",
    "bulk_size": "100",
    "bulk_timeout": "10ms",
    "analysis": {
      "analyzer": {
        "my_analyzer": {
          "type": "custom",
          "tokenizer": "my_ngram_tokenizer",
          "filter": [
            "my_ngram_filter"
          ]
        }
      },
      "filter": {
        "my_ngram_filter": {
          "type": "nGram",
          "min_gram": 1,
          "max_gram": 1
        }
      },
      "tokenizer": {
        "my_ngram_tokenizer": {
          "type": "nGram",
          "min_gram": 1,
          "max_gram": 1
        }
      }
    }
  }
}

Теперь проблема заключается в том, что каждый запрос возвращает ВСЕ документы. Любые указатели? Документация ElasticSearch по использованию nGram невелика...

Ответ 1

Я тоже использую nGram. Я использую стандартный токенизатор и nGram как фильтр. Вот моя настройка:

{
  "index": {
    "index": "my_idx",
    "type": "my_type",
    "analysis": {
      "index_analyzer": {
        "my_index_analyzer": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "lowercase",
            "mynGram"
          ]
        }
      },
      "search_analyzer": {
        "my_search_analyzer": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "standard",
            "lowercase",
            "mynGram"
          ]
        }
      },
      "filter": {
        "mynGram": {
          "type": "nGram",
          "min_gram": 2,
          "max_gram": 50
        }
      }
    }
  }
}

Позволяет находить части слов до 50 букв. Отрегулируйте max_gram по мере необходимости. В немецких словах может получиться действительно большой, поэтому я установил его на высокий уровень.

Ответ 2

Поиск с помощью ведущих и конечных шаблонов будет очень медленным при большом индексе. Если вы хотите выполнить поиск по префиксу word, удалите стартовый шаблон. Если вам действительно нужно найти подстроку в середине слова, вам лучше использовать токенизатор ngram.

Ответ 3

Я думаю, что нет необходимости менять какое-либо сопоставление. Попробуйте использовать query_string, это идеально. Все сценарии будут работать со стандартным стандартным анализатором:

Имеются данные:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

Сценарий 1:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*Doe*"}
} }

Ответ:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

Сценарий 2:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*Jan*"}
} }

Ответ:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

Сценарий 3:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*oh* *oe*"}
} }

Ответ:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

РЕДАКТИРОВАТЬ - Такая же реализация с использованием spring данных fooobar.com/questions/72582/...

Еще одно объяснение того, как query_string лучше других fooobar.com/questions/72585/...

Ответ 5

Попробуйте решение с описанным здесь: Точные поиски подстрок в ElasticSearch

{
    "mappings": {
        "my_type": {
            "index_analyzer":"index_ngram",
            "search_analyzer":"search_ngram"
        }
    },
    "settings": {
        "analysis": {
            "filter": {
                "ngram_filter": {
                    "type": "ngram",
                    "min_gram": 3,
                    "max_gram": 8
                }
            },
            "analyzer": {
                "index_ngram": {
                    "type": "custom",
                    "tokenizer": "keyword",
                    "filter": [ "ngram_filter", "lowercase" ]
                },
                "search_ngram": {
                    "type": "custom",
                    "tokenizer": "keyword",
                    "filter": "lowercase"
                }
            }
        }
    }
}

Чтобы решить проблему использования диска и проблему слишком долгого поиска, используются короткие 8 символов длиной ngrams (с настройкой: "max_gram": 8). Чтобы найти термины с более чем 8 символами, включите поиск в логический запрос И, ища каждую отдельную 8-значную подстроку в этой строке. Например, если пользователь выполнил поиск большого двора (10-символьная строка), поиск будет выглядеть следующим образом:

"arge ya AND arge yar AND rge yard.

Ответ 6

Если вы хотите реализовать функциональность автозаполнения, то Completion Suggestester является самым опрятным решением. В следующем сообщении в блоге содержится очень четкое описание того, как это работает.

В двух словах это структура данных в памяти, называемая FST, которая содержит действительные предложения и оптимизирована для быстрого извлечения и использования памяти. По сути, это всего лишь график. Например, и FST, содержащего слово hotel, marriot, mercure, munchen и munich будет выглядеть следующим образом:

enter image description here

Ответ 7

вы можете использовать regexp.

{ "_id" : "1", "name" : "John Doeman" , "function" : "Janitor"}
{ "_id" : "2", "name" : "Jane Doewoman","function" : "Teacher"  }
{ "_id" : "3", "name" : "Jimmy Jackal" ,"function" : "Student"  } 

если вы используете этот запрос:

{
  "query": {
    "regexp": {
      "name": "J.*"
    }
  }
}

вы дадите все данные, что их имя начинается с "J". Обратите внимание, что вы хотите получить только первые две записи, их имя заканчивается "человеком", поэтому вы можете использовать этот запрос:

{
  "query": { 
    "regexp": {
      "name": ".*man"
    }
  }
}

и если вы хотите получить всю запись, которая на своем имени существует "m", вы можете использовать этот запрос:

{
  "query": { 
    "regexp": {
      "name": ".*m.*"
    }
  }
}

Это работает для меня. И я надеюсь, что мой ответ будет подходящим для решения вашей проблемы.

Ответ 8

Elasticsearch имеет подстановочный запрос, который может быть использован в этом случае и является самым простым. Он вернет оба соответствующих документа

Ответ 9

Использование wilcards (*) предотвращает подсчет очков

Ответ 10

Nevermind.

Мне пришлось посмотреть документацию Lucene. Кажется, я могу использовать подстановочные знаки!: -)

curl http://localhost:9200/my_idx/my_type/_search?q=*Doe*

делает трюк!