网络做网站如何盈利,安泽网站建设,中信建设有限责任公司海外地位,电商哪个岗位最吃香记录部署的操作步骤 准备工作编写docker-compose.yml启动服务验证部署结果 本次elasticsearch和kibana版本为8.2.2 使用环境#xff1a;centos7.9 本次记录还包括#xff1a;安装elasticsearch中文分词插件和拼音分词插件 准备工作
1、创建目录和填写配置
mkdir /home/es/s… 记录部署的操作步骤 准备工作编写docker-compose.yml启动服务验证部署结果 本次elasticsearch和kibana版本为8.2.2 使用环境centos7.9 本次记录还包括安装elasticsearch中文分词插件和拼音分词插件 准备工作
1、创建目录和填写配置
mkdir /home/es/singleecho http.host: 0.0.0.0 ./config/elasticsearch.ymlecho xpack.security.enabled: false ./config/elasticsearch.ymlchmod -R 777 /home/es/single2、准备中文分词插件和拼音分词插件
2.1 获取中文和拼音分词插件
下载地址
https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v8.2.2/elasticsearch-analysis-ik-8.2.2.zip
https://github.com/medcl/elasticsearch-analysis-pinyin/releases/download/v8.2.2/elasticsearch-analysis-pinyin-8.2.2.zip
ps. github是国外网站不好访问已将插件下载好放在了网盘里可自取
链接: https://pan.baidu.com/s/1996C788VCKhZ6BIj7heumQ 提取码: p958 2.2 创建存放插件的文件夹
cd /home/es/singlemkdir plugins将插件压缩包本地解压后 上传到 plugins文件夹下
编写docker-compose.yml
cd /home/es/single
vim docker-compose.ymlversion: 2.1services: elasticsearch:image: elasticsearch:8.2.2container_name: elasticsearchrestart: alwaysvolumes:- ./config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml- ./data:/usr/share/elasticsearch/data- ./plugins:/usr/share/elasticsearch/pluginsenvironment:- discovery.typesingle-node- ES_JAVA_OPTS-Xms64m -Xmx512m ports:- 9200:9200- 9300:9300kibana: image: kibana:8.2.2container_name: kibanarestart: always environment:- ELASTICSEARCH_HOSTShttp://192.168.8.87:9200 ports:- 5601:5601启动服务
cd /home/es/single
# 后台启动
docker compose up -d ps. 其他管理服务的命令
#关闭
docker compose stop
#关闭并删除容器
docker compose down
#重启服务
docker compose restart 验证部署结果
1、查看容器运行状态
docker ps2、访问页面 Elasticsearch Kibana 3、操作ES 步骤 1进入Kibana 2使用Kibana的 Dev Tools 操作Elasticsearch 4、看分词器插件是否正常使用
4.1 查看插件
GET _cat/plugins4.2 测试中文插件ik ik提供的两种analyzer: ik_max_word会将文本做最细粒度的拆分适合 Term Queryik_smart: 会做最粗粒度的拆分适合 Phrase 查询。 看 ik_max_word 分词结果
GET _analyze
{tokenizer: ik_max_word,text: [天安门]
}看 ik_smart 分词结果
GET _analyze
{tokenizer: ik_smart,text: [天安门]
}查看 拼音 分词结果
GET _analyze
{tokenizer: pinyin,text: [天安门]
}拼音分词器拆词时除了会将每个文字转化为拼音也会存每个文字的首字母。实现搜索首字母也能返回对应结果的效果 效果示例如图