在 MOPCON 2022 分享的「深入淺出 autocomplete」

這次在 MOPCON 分享的「深入淺出 autocomplete」,算是歷次在 blog 分享的 autocomplete 相關內容以來,首次在研討會有完整的分享。

就如同大綱所提的,這次分享了如何使用 Redis 實作 autocomplete 之外,也首次分享了 Funliday 如何改用 Elasticsearch 實作這項功能。Redis 的實作之前提過蠻多次的,今天就多講一些關於 Elasticsearch 的實作。


其實 Elasticsearch 的 edge n-gram tokenizer 非常適合拿來做 autocomplete 的底層,除了不用自己寫 normalize 和 tokenize 外,也有限制長度的參數可以使用。

再來就是跟 Redis 相比,Elasticsearch 天生有 inverted index 的資料結構,所以比較不會有資料量過度膨脹的問題。而且不像 Redis 的 sorted set,資料寫入時就已經決定好格式,Elasticsearch 的 document 更新非常方便。

另外,雖然 Elasticsearch 的資料是儲存在硬碟裡,跟 Redis 原生就儲存在記憶體的速度一定有差異。但因為 Elasticsearch 實作 autocomplete 時,用的是 filter,所以只要這個關鍵字用的夠頻繁,其實最後 Elasticsearch 還是從 cache 裡面取資料出來,速度影響不會這麼大。


現在 POIBank 的 search v2 (還沒上線 囧) 的一部分 autocomplete 就是用 Elasticsearch 來實作,先來下個 flag,希望明年過年前後可以把所有的 autocomplete 都從 Redis 移植到 Elasticsearch!