使用lucce分词怎么_ElasticSearch 分词器,了解一下

article/2025/8/23 13:24:21

4a4c076128b2d91bbf9452626d207e27.png

这篇文章主要来介绍下什么是 Analysis ,什么是分词器,以及 ElasticSearch 自带的分词器是怎么工作的,最后会介绍下中文分词是怎么做的。

首先来说下什么是 Analysis:

什么是 Analysis?

顾名思义,文本分析就是把全文本转换成一系列单词(term/token)的过程,也叫分词。在 ES 中,Analysis 是通过分词器(Analyzer) 来实现的,可使用 ES 内置的分析器或者按需定制化分析器。

举一个分词简单的例子:比如你输入 Mastering Elasticsearch,会自动帮你分成两个单词,一个是 mastering,另一个是 elasticsearch,可以看出单词也被转化成了小写的。

7e3ab603bb0e0b21ec5cda3eff876e47.png

再简单了解了 Analysis 与 Analyzer 之后,让我们来看下分词器的组成:

分词器的组成

分词器是专门处理分词的组件,分词器由以下三部分组成:

  • Character Filters:针对原始文本处理,比如去除 html 标签
  • Tokenizer:按照规则切分为单词,比如按照空格切分
  • Token Filters:将切分的单词进行加工,比如大写转小写,删除 stopwords,增加同义语

440f9c94b3e64108ddbf05631986754f.png

同时 Analyzer 三个部分也是有顺序的,从图中可以看出,从上到下依次经过 Character FiltersTokenizer 以及 Token Filters,这个顺序比较好理解,一个文本进来肯定要先对文本数据进行处理,再去分词,最后对分词的结果进行过滤。

其中,ES 内置了许多分词器:

  • Standard Analyzer - 默认分词器,按词切分,小写处理
  • Simple Analyzer - 按照非字母切分(符号被过滤),小写处理
  • Stop Analyzer - 小写处理,停用词过滤(the ,a,is)
  • Whitespace Analyzer - 按照空格切分,不转小写
  • Keyword Analyzer - 不分词,直接将输入当做输出
  • Pattern Analyzer - 正则表达式,默认 W+
  • Language - 提供了 30 多种常见语言的分词器
  • Customer Analyzer - 自定义分词器

接下来会对以上分词器进行讲解,在讲解之前先来看下很有用的 API:_analyzer API

Analyzer API

它可以通过以下三种方式来查看分词器是怎么样工作的:

  • 直接指定 Analyzer 进行测试
GET _analyze
{"analyzer": "standard","text" : "Mastering Elasticsearch , elasticsearch in Action"
}
  • 指定索引的字段进行测试
POST books/_analyze
{"field": "title","text": "Mastering Elasticesearch"
}
  • 自定义分词进行测试
POST /_analyze
{"tokenizer": "standard", "filter": ["lowercase"],"text": "Mastering Elasticesearch"
}

再了解了 Analyzer API 后,让我们一起看下 ES 内置的分词器:

ES 分词器

首先来介绍下 Stamdard Analyzer 分词器:

Stamdard Analyzer

223a2923b2edef3028222ad634eeafa3.png

它是 ES 默认的分词器,它会对输入的文本按词的方式进行切分,切分好以后会进行转小写处理,默认的 stopwords 是关闭的

下面使用 Kibana 看一下它是怎么样进行工作的,在 Kibana 的开发工具(Dev Tools)中指定 Analyzer 为 standard,并输入文本 In 2020, Java is the best language in the world.,然后我们运行一下:

GET _analyze
{"analyzer": "standard","text": "In 2020, Java is the best language in the world."
}

运行结果如下:

{"tokens" : [{"token" : "in","start_offset" : 0,"end_offset" : 2,"type" : "<ALPHANUM>","position" : 0},{"token" : "2020","start_offset" : 3,"end_offset" : 7,"type" : "<NUM>","position" : 1},{"token" : "java","start_offset" : 9,"end_offset" : 13,"type" : "<ALPHANUM>","position" : 2},{"token" : "is","start_offset" : 14,"end_offset" : 16,"type" : "<ALPHANUM>","position" : 3},{"token" : "the","start_offset" : 17,"end_offset" : 20,"type" : "<ALPHANUM>","position" : 4},{"token" : "best","start_offset" : 21,"end_offset" : 25,"type" : "<ALPHANUM>","position" : 5},{"token" : "language","start_offset" : 26,"end_offset" : 34,"type" : "<ALPHANUM>","position" : 6},{"token" : "in","start_offset" : 35,"end_offset" : 37,"type" : "<ALPHANUM>","position" : 7},{"token" : "the","start_offset" : 38,"end_offset" : 41,"type" : "<ALPHANUM>","position" : 8},{"token" : "world","start_offset" : 42,"end_offset" : 47,"type" : "<ALPHANUM>","position" : 9}]
}

可以看出是按照空格、非字母的方式对输入的文本进行了转换,比如对 Java 做了转小写,对一些停用词也没有去掉,比如 in

其中 token 为分词结果;start_offset 为起始偏移;end_offset 为结束偏移;position 为分词位置。

下面来看下 Simple Analyzer 分词器:

Simple Analyzer

0df1755700f25f802a354d63f0b1d542.png

它只包括了 Lower CaseTokenizer,它会按照非字母切分非字母的会被去除,最后对切分好的做转小写处理,然后接着用刚才的输入文本,分词器换成 simple 来进行分词,运行结果如下:

{"tokens" : [{"token" : "in","start_offset" : 0,"end_offset" : 2,"type" : "word","position" : 0},{"token" : "java","start_offset" : 9,"end_offset" : 13,"type" : "word","position" : 1},{"token" : "is","start_offset" : 14,"end_offset" : 16,"type" : "word","position" : 2},{"token" : "the","start_offset" : 17,"end_offset" : 20,"type" : "word","position" : 3},{"token" : "best","start_offset" : 21,"end_offset" : 25,"type" : "word","position" : 4},{"token" : "language","start_offset" : 26,"end_offset" : 34,"type" : "word","position" : 5},{"token" : "in","start_offset" : 35,"end_offset" : 37,"type" : "word","position" : 6},{"token" : "the","start_offset" : 38,"end_offset" : 41,"type" : "word","position" : 7},{"token" : "world","start_offset" : 42,"end_offset" : 47,"type" : "word","position" : 8}]
}

从结果中可以看出,数字 2020 被去除掉了,说明非字母的的确会被去除,所有的词也都做了小写转换。

现在,我们来看下 Whitespace Analyzer 分词器:

Whitespace Analyzer

48a4c856cf54a2e68e1c140c51f0d97c.png

它非常简单,根据名称也可以看出是按照空格进行切分的,下面我们来看下它是怎么样工作的:

{"tokens" : [{"token" : "In","start_offset" : 0,"end_offset" : 2,"type" : "word","position" : 0},{"token" : "2020,","start_offset" : 3,"end_offset" : 8,"type" : "word","position" : 1},{"token" : "Java","start_offset" : 9,"end_offset" : 13,"type" : "word","position" : 2},{"token" : "is","start_offset" : 14,"end_offset" : 16,"type" : "word","position" : 3},{"token" : "the","start_offset" : 17,"end_offset" : 20,"type" : "word","position" : 4},{"token" : "best","start_offset" : 21,"end_offset" : 25,"type" : "word","position" : 5},{"token" : "language","start_offset" : 26,"end_offset" : 34,"type" : "word","position" : 6},{"token" : "in","start_offset" : 35,"end_offset" : 37,"type" : "word","position" : 7},{"token" : "the","start_offset" : 38,"end_offset" : 41,"type" : "word","position" : 8},{"token" : "world.","start_offset" : 42,"end_offset" : 48,"type" : "word","position" : 9}]
}

可以看出,只是按照空格进行切分,2020 数字还是在的,Java 的首字母还是大写的,, 还是保留的。

接下来看 Stop Analyzer 分词器:

Stop Analyzer

d831ba336974fabcb24c88ef93609ca4.png

它由 Lowe CaseTokenizerStopToken Filters 组成的,相较于刚才提到的 Simple Analyzer,多了 stop 过滤,stop 就是会把 theais 等修饰词去除,同样让我们看下运行结果:

{"tokens" : [{"token" : "java","start_offset" : 9,"end_offset" : 13,"type" : "word","position" : 1},{"token" : "best","start_offset" : 21,"end_offset" : 25,"type" : "word","position" : 4},{"token" : "language","start_offset" : 26,"end_offset" : 34,"type" : "word","position" : 5},{"token" : "world","start_offset" : 42,"end_offset" : 47,"type" : "word","position" : 8}]
}

可以看到 in is the 等词都被 stop filter过滤掉了。

接下来看下 Keyword Analyzer

Keyword Analyzer

15f1bdfbfb5ef095cee05a4cdfdfd527.png

它其实不做分词处理,只是将输入作为 Term 输出,我们来看下运行结果:

{"tokens" : [{"token" : "In 2020, Java is the best language in the world.","start_offset" : 0,"end_offset" : 48,"type" : "word","position" : 0}]
}

我们可以看到,没有对输入文本进行分词,而是直接作为 Term 输出了。

接下来看下 Pattern Analyzer

Pattern Analyzer

54cf0baeeda740cb85404f416220c3a2.png

它可以通过正则表达式的方式进行分词,默认是用 W+ 进行分割的,也就是非字母的符合进行切分的,由于运行结果和 Stamdard Analyzer 一样,就不展示了。

Language Analyzer

ES 为不同国家语言的输入提供了 Language Analyzer 分词器,在里面可以指定不同的语言,我们用 english 进行分词看下:

{"tokens" : [{"token" : "2020","start_offset" : 3,"end_offset" : 7,"type" : "<NUM>","position" : 1},{"token" : "java","start_offset" : 9,"end_offset" : 13,"type" : "<ALPHANUM>","position" : 2},{"token" : "best","start_offset" : 21,"end_offset" : 25,"type" : "<ALPHANUM>","position" : 5},{"token" : "languag","start_offset" : 26,"end_offset" : 34,"type" : "<ALPHANUM>","position" : 6},{"token" : "world","start_offset" : 42,"end_offset" : 47,"type" : "<ALPHANUM>","position" : 9}]
}

可以看出 language 被改成了 languag,同时它也是有 stop 过滤器的,比如 in,is 等词也被去除了。

最后,让我们看下中文分词:

中文分词

中文分词有特定的难点,不像英文,单词有自然的空格作为分隔,在中文句子中,不能简单地切分成一个个的字,而是需要分成有含义的词,但是在不同的上下文,是有不同的理解的。

比如以下例子:

在这些,企业中,国有,企业,有十个/在这些,企业,中国,有企业,有十个
各国,有,企业,相继,倒闭/各,国有,企业,相继,倒闭
羽毛球,拍卖,完了/羽毛球拍,卖,完了

那么,让我们来看下 ICU Analyzer 分词器,它提供了 Unicode 的支持,更好的支持亚洲语言!

我们先用 standard 来分词,以便于和 ICU 进行对比。

GET _analyze
{"analyzer": "standard","text": "各国有企业相继倒闭"
}

运行结果就不展示了,分词是一个字一个字切分的,明显效果不是很好,接下来用 ICU 进行分词,分词结果如下:

{"tokens" : [{"token" : "各国","start_offset" : 0,"end_offset" : 2,"type" : "<IDEOGRAPHIC>","position" : 0},{"token" : "有","start_offset" : 2,"end_offset" : 3,"type" : "<IDEOGRAPHIC>","position" : 1},{"token" : "企业","start_offset" : 3,"end_offset" : 5,"type" : "<IDEOGRAPHIC>","position" : 2},{"token" : "相继","start_offset" : 5,"end_offset" : 7,"type" : "<IDEOGRAPHIC>","position" : 3},{"token" : "倒闭","start_offset" : 7,"end_offset" : 9,"type" : "<IDEOGRAPHIC>","position" : 4}]
}

可以看到分成了各国企业相继倒闭,显然比刚才的效果好了很多。

还有许多中文分词器,在这里列举几个:

IK

  • 支持自定义词库,支持热更新分词字典
  • https://github.com/medcl/elasticsearch-analysis-ik

jieba

  • Python 中最流行的分词系统,支持分词和词性标注
  • 支持繁体分词、自定义词典、并行分词等
  • https://github.com/sing1ee/elasticsearch-jieba-plugin

THULAC

  • THU Lexucal Analyzer for Chinese, 清华大学自然语言处理和社会人文计算实验室的一套中文分词器
  • https://github.com/thunlp/THULAC-Java

大家可以自己安装下,看下它中文分词效果。

总结

本文主要介绍了 ElasticSearch 自带的分词器,学习了使用 _analyzer API 去查看它的分词情况,最后还介绍下中文分词是怎么做的。

参考文献
Elasticsearch顶尖高手系列
Elasticsearch核心技术与实战 https://www. elastic.co/guide/en/ela sticsearch/reference/7.1/indices-analyze.html https://www. elastic.co/guide/en/ela sticsearch/reference/current/analyzer-anatomy.html

http://chatgpt.dhexx.cn/article/juxab2Mq.shtml

相关文章

自然语言处理 # 中文分词技术 概述

定义 中文分词&#xff08;Chinese Word Segmentation&#xff09;就是将连续的字序列按照一定的规范重新组合成词序列的过程。 Ques:为什么要分词&#xff1f; Ans: 词是最小的能够独立运用的语言单位 Ques:什么是独立运用呢&#xff1f; Ans:它可以解释为“单独做句法成分或…

Python 中 concurrent.futures 模块使用说明

Python 中 concurrent.futures 模块使用说明 转载请注明出处&#xff1a;https://blog.csdn.net/jpch89/article/details/87643972 文章目录 Python 中 concurrent.futures 模块使用说明0. 参考资料1. 概述2. Executor Object 执行器对象3. ThreadPoolExecutor 线程池执行器4.…

【ruoyi】java.util.concurrent.RejectedExecutionException: Task java.util.concurrent.ScheduledThreadPoo

前言 ruoyi 4.6.0jdk1.8 错误 11:48:16.879 [http-nio-9031-exec-25] INFO c.r.f.s.r.UserRealm - [doGetAuthenticationInfo,128] - 对用户[admin]进行登录验证..验证未通过{} java.util.concurrent.RejectedExecutionException: Task java.util.concurrent.ScheduledThre…

【学习积累】Queue 与 ConcurrentQueue性能测试

在 C# 中&#xff0c;关于队列&#xff08;Queue&#xff09;有两种&#xff0c;一种就是我们普通使用的队列&#xff0c;另一种是线程安全的队列 ConcurrentQueue<T> 。 ConcurrentQueue表示线程安全的先进先出 (FIFO) 集合。https://learn.microsoft.com/zh-cn/dotnet…

Python报错ModuleNotFoundError: No module named ‘concurrent‘

在测试Python的多线程时&#xff0c;根据官方的说法&#xff0c;concurrent.futures在Python3中已经内置了&#xff0c;不需要下载安装&#xff0c;如果是Python2则需要运行pip install futures进行安装。。。 这样导入&#xff0c;两种写法均可 import concurrent.futures #…

go语言工具_Concurrent Map

Concurrent Map 背景 map是平时项目中经常用到的数据类型&#xff0c;但是如果多个协程去读写同一个map时&#xff0c;为了不发生数据错误&#xff0c;经常去将其和锁封装成一个新的map。像以下两种示例。 type LockMap struct { m map[interface{}]interface{} l…

C#线程安全队列ConcurrentQueue

ConcurrentQueue成员函数 入队(EnQueue) 、出队(TryDequeue) 、是否为空(IsEmpty)、获取队列内元素数量(Count)。 void Enqueue(T item) 入队函数&#xff0c;当队列已满时会自动增加队列容量。 bool TryDequeue(T* result) 尝试移除并返回并发队列开头处对象&#xff0c;…

项目优化>C++,concurrentqueue(高性能并发队列)

项目中的数据队列基于轮询和selep的实时性及CUP性能差&#xff0c;需要进行优化&#xff0c;尝试使用concurrentqueue进行优化。网上有一些资料介绍,可供参考。 使用后的个人理解:一个线程安全的queue&#xff0c;并且concurrentqueue的线程安全并不是一味的加锁&#xff0c;它…

ConcurrentMap

ConcurrentMap&#xff0c;它是一个接口&#xff0c;是一个能够支持并发访问的java.util.map集合&#xff1b; ConcurrentHashMap是一个线程安全&#xff0c;并且是一个高效的HashMap。 spring 缓存注解 通过查看源代码发现将数据存在ConcurrentMap中 1 Map并发集合 1.1 Co…

学习线程安全队列ConcurrentQueue

首先,基本使用&#xff1a;入队(EnQueue) 、出队(TryDequeue) 、是否为空(IsEmpty)、获取队列内元素数量(Count)。 一、ConcurrentQueue内部结构: 1.实现原理 众所周知&#xff0c;在普通的非线程安全队列有两种实现方式: 1.使用数组实现的循环队列。 2.使用链表实现的队列…

并发系列(六)-----concurrent的简单介绍

一 简介 concurrent包是jdk1.5引入的重要的包&#xff0c;主要代码由大牛Doug Lea完成。这个包下的一些类如果用好了可以很方便的保证数据在多线程下操作的正确性。就比如说线程共享的i&#xff0c;如果使用concurrent包下的Atomic系列类可以很方便的解决这个问题。这篇文章简单…

python并发之concurrent快速入门

导读&#xff1a;我很笨&#xff0c;但是我很快——计算机之所以计算能力如此出众&#xff0c;不在于其有多智能&#xff0c;而是因为它超快的执行速度&#xff0c;而多核心则可以进一步成倍的提高效率。在python中&#xff0c;concurrent库就是用于完成并发的模块之一。 01 初…

Java 并发工具包(concurrent)详解

目录 一、concurrent并发包 二、ReentrantLock&#xff08;可重入锁&#xff09; 1、锁状态中断与可重入 2、尝试非阻塞地获取锁 3、等待可中断 4、设置公平锁 三、CountDownLatch&#xff08;门栓&#xff09; 四、cyclicBarrier&#xff08;栅栏&#xff09; 五、…

JAVA中split函数的用法

JAVA中split函数的用法 只写经常使用的&#xff0c;并不完整。 1.基本用法&#xff0c;将字符串按照指定字符串进行分割&#xff0c;例如&#xff1a; public class Main {public static void main(String[] args) {String ss "abcabcdefg";String[] split ss.sp…

C语言实现split函数

实现类似JAVA编程语言中split函数&#xff1a; &#xff08;这里以空格为分隔符进行演示&#xff09; 函数的声明&#xff1a;void split(char *src,const char *separator,char **dest,int *num) {}变量&#xff1a; 1.*src&#xff1a;要进行分割的字符串地址&#xff0c; 2…

mysql实现自定义split函数

1、自定义split函数脚本 CREATE DEFINER root% FUNCTION tjdemo.fun_get_split_string_total(f_string varchar(1000),f_delimiter varchar(5)) RETURNS int(11) LANGUAGE SQL NOT DETERMINISTIC CONTAINS SQL SQL SECURITY DEFINER COMMENT BEGIN declare returnInt int(11…

Oracle实现split函数

创建TYPE CREATE OR REPLACE TYPE TYPE_SPLIT AS TABLE OF VARCHAR2 (4000);创建函数 CREATE OR REPLACE FUNCTION SPLIT(P_STRING VARCHAR2, P_SEP VARCHAR2 : ,)RETURN TYPE_SPLITPIPELINED ISIDX PLS_INTEGER;V_STRING VARCHAR2(4000) : P_STRING; BEGINLOOPIDX : INSTR(…

java split函数的用法_java中split函数用法以及注意事项

java中split函数用法以及注意事项 发布时间&#xff1a;2020-04-23 10:28:23 来源&#xff1a;亿速云 阅读&#xff1a;215 作者&#xff1a;小新 本篇文章和大家了解一下java中split函数用法以及注意事项。有一定的参考价值&#xff0c;有需要的朋友可以参考一下&#xff0c;希…

mysql 创建函数 split_在mysql中实现split函数的几种方法

在mysql中实现split函数的几种方法 关注:98 答案:2 mip版 解决时间 2021-02-07 11:27 提问者夜落花台 2021-02-07 02:11 在mysql中实现split函数的几种方法 最佳答案 二级知识专家蓝莓九栀 2021-02-07 03:28 mysql 5.* 的版本现在没有split 函数,以下是几个自定义的split函数…

Oracle split函数

一、创建split函数 1、创建TYPE CREATE OR REPLACE TYPE TYPE_SPLIT AS TABLE OF VARCHAR2 (4000); / 2、创建split函数 CREATE OR REPLACE FUNCTION SPLIT(P_STRING VARCHAR2, P_SEP VARCHAR2 : ,)RETURN TYPE_SPLITPIPELINED ISIDX PLS_INTEGER;V_STRING VARCHAR2(4000)…