ElasticSearch学习文档2018.11

1       Elasticsearch安装

1.1    ES6.0版本安装head插件

1.1 下载head插件

下载地址:https://github.com/mobz/elasticsearch-head;点击clone or download按钮

1.2  安装node.js

下载地址:https://nodejs.org/en/download/

1.3  安装grunt

运行head需要借助grunt命令 ,但是安装grunt需要借助npm

进入nodejs安装根目录,输入以下命令安装grunt

npm install -g grunt  -cli

1.4   安装pathomjs

进入head根目录,输入npm install命令

1.5   运行head

在head根目录下执行grunt server,出现如图所示内容则启动成功!

1.6  修改配置文件

打开 elasticsearch安装目录/config/elasticsearch.yml

在配置文件末尾加上以下两句

http.cors.enabled: true

http.cors.allow-origin: "*"

修改完成后保存重启elasticsearch,然后在head根目录下键入命令grunt server,出现1.5图示则在浏览器地址栏访问http://localhost:9100

出现下图所示内容表示head插件安装成功。

1.2     ElasticSearch6.x版本安装kibana插件

2.1 下载地址 : https://www.elastic.co/downloads/kibana

1.7  进入到下载目录,解压kibana-6.1.1-windows-x86_64.zip

1.8  进入config编辑kibana.yml,修改kibana的监听端口和kibana查看elasticsearch地址

# Kibana is served by a back end server. This setting specifies the port to use.
server.port: 5601
# The URL of the Elasticsearch instance to use for all your queries.
elasticsearch.url: "http://localhost:9200"

2.4进入bin目录下双击kibana.bat,启动kibana

默认情况下 http://localhost:5601/ 即可访问kibana主页,若elasticsearch连接正常即可看到如下界面表示安装成功。

1.3    Elasticsearch安装ik分词插件

下载地址:

https://github.com/medcl/elasticsearch-analysis-ik/

解压zip文件复制到plugin目录下即可

使用ik分词器与使用标准分词器进行对比

(1)使用standard分词器,对中文分词效果不佳

分词效果

(2)使用ik_smart分词器

分词结果

(3)使用ik_max_word分词器

1.4    ElasticSearch基本概念

 

分片:Elasticsearch索引是由一个或多个分片组成的,每个分片包含了文档集的一部分。

副本:分片的副本

区别:生成索引后,分片的数量可以添加删除,而分片的数量无法改变。此时修改分片数量

的唯一途径就是创建另一个索引并重新索引数据。

1.修改索引的自动创建

修改配置文件elasticsearch.yml 设置action.auto_create_index: false

2.类型确定机制

解决方案是在映射定义文件中把

numeric_detection 属性设置为 true ,以开启更积极的文本检测

3.禁用字段猜测类型

要关闭自动添加字段,可以把dynamic属性设置为false

4.Elasticsearch 核心类型

①string:字符串;

②number:数字

③date:日期

④boolean:布尔类型

⑤binary:二进制(二进制字段是存储在索引中的二进制数据的Base64表示,可用来存储以二进制形式正常写入

的数据,例如图像)

5.公共属性

①index_name:定义存储在索引中的字段名称,默认对象名

②index:是否索引,默认(analyzed),设置为no则不索引,字符串可以设置not_analyzed,

则不分析直接编入索引,此时检索时需要全部匹配

③store:是否写入索引,默认为no(如果使用了_source字段,没有编入也可返回该值),设置yes

可用于搜索

④boost:默认值为1,设置权重,值越大,字段中值的重要性页越高

⑤null_value:如果该字段并非索引文档的一部分,此属性指定应写入索引的值

默认的行为是忽略该字段。(这tm怎么理解?)

⑥copy_to :此属性指定一个字段,字段的所有值都将复制到该指定字段

⑦include_in_all:此属性指定该字段是否应包括在 _all 字段中。默认情况下,如果使

用 _all 字段,所有字段都会包括在其中

注意:模糊查询(like)不能使用索引,查询效率低

1.5  MySQL和Elasticsearch对比

 

 springboot与elasticsearch版本对应关系

1.6     ElasticSearch集群搭建

ElasticSearch横向扩展能力很强,集群就是单机版的复制,

复制多个elasticsearch,这里配置一主二仆,修改config目录下elasticsearch.yml文件

①  slave配置如下:

http.cors.enabled: true
http.cors.allow-origin: "*"
#master的配置信息:
#集群名称,保证唯一
cluster.name: elasticsearch
#节点名称,必须不一样
node.name: slave2
#当前节点不作为集群协调者,但存储数据
node.master: false
node.data: true
#必须为本机的ip地址
network.host: 127.0.0.1
#服务端口号,在同一机器下必须不一样
http.port: 9202
#集群间通信端口号,在同一机器下必须不一样
transport.tcp.port: 9302
#设置集群自动发现机器ip集合
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301", "127.0.0.1:9302"]

  

master配置如下:

http.cors.enabled: true
http.cors.allow-origin: "*"
#master的配置信息:
#集群名称,保证唯一
cluster.name: elasticsearch
#节点名称,必须不一样
node.name: master
#当前节点作为集群协调者且存储数据
node.master: true
node.data: true
#必须为本机的ip地址
network.host: 127.0.0.1
#服务端口号,在同一机器下必须不一样
http.port: 9200
#集群间通信端口号,在同一机器下必须不一样
transport.tcp.port: 9300
#设置集群自动发现机器ip集合
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301", "127.0.0.1:9302"]  

配置完成后,启动三个节点,在head插件下会看到如图所示的效果:

1.7    linux下elasticsearch安装问题

[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]

解决:切换到root用户,编辑limits.conf 添加类似如下内容

vi /etc/security/limits.conf

添加如下内容:

* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096

[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

解决:切换到root用户修改配置sysctl.conf

vi /etc/sysctl.conf

添加下面配置:

vm.max_map_count=655360

并执行命令:

sysctl –p

[3]: system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk

其他错误:

https://blog.csdn.net/qq_33363618/article/details/78882827

  

2       Elasticsearch查询

2.1    Elasticsearch Restful API

①新增记录

向指定的 /Index/Type 发送 PUT 请求,就可以在 Index 里面新增一条记录

http://localhost:9200/cmbc/employee

  

{

        "first_name": "zkr-yanghuiying",

        "last_name": "pacbj-yanghuiying",

        "age": 24,

        "about": "I love to coding ...",

        "interests": [

            "games"

        ],

        "join_time": "2018-03-06"

}

注意: /Index/Type后面可以加id,id可以为数字或者字符串,不加会自动生成,此时请求为PUT请求。新增记录的时候,也可以不指定 Id,这时要改成 POST 请求

② 查看记录

向/Index/Type/Id发出 GET 请求,就可以查看这条记录。

③ 删除记录

删除记录就是Delete请求

Delete  http://localhost:9200/cmbc/employee

删除文档加Id即可,删除索引则加Index即可

更新记录(有点糊涂,后期再研究)

ES可以使用POST或者PUT进行全部更新,如果指定ID的文档已经存在,则执行更新操作。

注意:es执行更新操作的时候,ES首先将旧的文档标记为删除状态,然后添加新的文档,旧的文档不会立即消失,但是你也无法访问,ES会在你继续添加更多数据的时候在后台清理已经标记为删除状态的文档。

局部更新,可以添加新字段或者更新已有字段(必须使用POST)

http://localhost:9200/cmbc/employee/TuAQIGQBNnQMC6EoMDSM/_update
{
    "doc": {
        "age": 25,
        "last_name": "zkr-lijunkai"
    }
}

区别: 全部更新,是直接把之前的老数据,标记为删除状态,然后,再添加一条更新的;局域更新,只是修改某个字段。

查询

5.1 返回所有记录,使用 GET 方法,直接请求/Index/Type/_search,就会返回所有记录

http://localhost:9200/_search
http://localhost:9200/cmbc/employee/_search
{

    "took": 15,

    "timed_out": false,

    "_shards": {

        "total": 5,

        "successful": 5,

        "skipped": 0,

        "failed": 0

    },

    "hits": {

        "total": 13,

        "max_score": 1,

        "hits": [

            {

                "_index": "cmbc",

                "_type": "employee",

                "_id": "dR_7G2QBVx78n1CFS4kg",

                "_score": 1,

                "_source": {

                    "first_name": "zkr-liuyang",

                    "last_name": "pacbj-liuyang",

                    "age": 22,

                    "about": "I love to coding ...",

                    "interests": [

                        "games"

                    ],

                    "join_time": "2018-03-06"

                }

            },

            {

                "_index": "cmbc",

                "_type": "employee",

                "_id": "eB_8G2QBVx78n1CFVol2",

                "_score": 1,

                "_source": {

                    "first_name": "zkr-yanghuiying",

                    "last_name": "pacbj-yanghuiying",

                    "age": 24,

                    "about": "I love to coding ...",

                    "interests": [

                        "games"

                    ],

                    "join_time": "2018-03-06"

                }

            }

        ]

    }

}

返回结果的 took字段表示该操作的耗时(单位为毫秒),timed_out字段表示是否超时,hits字段表示命中的记录

5.2  Match查询,指定匹配条件

POST  http://localhost:9200/cmbc/employee/_search
{
    "query": {
        "match": {
            "first_name": "zkr-liuyang"
        }
    }
}

网上的教程使用的是get请求拼json查询条件,但是post请求发送json数据也是可以的。

我们可以通过size字段,指定返回几条结果

"_score": 0.87546873  _score表示得分(匹配程度),查询出来的结果会按照匹配程度的大小倒排。

还可以通过from字段,指定位移。

"from": 1(从位置1开始(默认是从位置0开始))

5.3 查询所有

{
    "query": {
        "match_all": {}
    }
}

ElasticSearch中Filter和Query的异同

如下例子,查找性别是女,所在的州是PA,过滤条件是年龄是39岁,balance大于等于10000的文档:

{
    "query": {
        "bool": {
            "filter": [
        {"term": {"age": "39"}},
                {"range": {"balance": {"gte": "10000"}}
                }
            ],
            "must": [
        {"match":{"gender": "F"}},
                {"match": {"state": "PA"}}
            ]
        }
    }
}

2.2    Query与Filter异同:

Query查询上下文:

在查询上下文中,查询会回答这个问题——“这个文档匹不匹配这个查询,它的相关度高么?” ES中索引的数据都会存储一个_score分值,分值越高就代表越匹配。另外关于某个搜索的分值计算还是很复杂的,因此也需要一定的时间。查询上下文 是在 使用query进行查询时的执行环境,比如使用search的时候。

Filter过滤器上下文:

在过滤器上下文中,查询会回答这个问题——“这个文档匹不匹配?”

答案很简单,是或者不是。它不会去计算任何分值,也不会关心返回的排序问题,因此效率会高一点。

过滤上下文 是在使用filter参数时候的执行环境,比如在bool查询中使用Must_not或者filter。另外,经常使用过滤器,ES会自动的缓存过滤器的内容,这对于查询来说,会提高很多性能。

总结

查询上下文中,查询操作不仅仅会进行查询,还会计算分值,用于确定相关度;在过滤器上下文中,查询操作仅判断是否满足查询条件,且查询的结果可以被缓存。

 

  注意:此处JestClient是单例的,在多线程并发访问时注意加锁同步或者使用异步执行jestClient.executeAsync()或者自定义JestClientFactory设置HttpClientConfig的多线程属性为true,从而重新构造JestClient。

2.3    Elasticsearch模糊查询

Elasticsearch模糊查询

GET /_search
{
    "query": {
        "wildcard" : { "user" : "ki*y" }
    }
}

也可以使用下面这种查询方式

GET /_search
{
    "query": {
        "wildcard" : { "user" : { "value" : "ki*y", "boost" : 2.0 } }
    }
}

wildcard query应杜绝使用通配符打头,实在不得已要这么做,就一定需要限制用户输入的字符串长度。 最好换一种实现方式,通过在index time做文章,选用合适的分词器,比如nGram tokenizer预处理数据,然后使用更廉价的term query来实现同等的模糊搜索功能。 对于部分输入即提示的应用场景,可以考虑优先使用completion suggester, phrase/term suggeter一类性能更好,模糊程度略差的方式查询,待suggester没有匹配结果的时候,再fall back到更模糊但性能较差的wildcard, regex, fuzzy一类的查询。

2.4    对象嵌套查询(Nested dataype)

参考链接 : https://www.elastic.co/guide/en/elasticsearch/reference/current/nested.html

参考链接 : https://www.elastic.co/guide/cn/elasticsearch/guide/current/nested-query.html

嵌套类型是对象数据类型的专门化版本,它允许对象数组以一种彼此独立查询的方式被索引。

内部对象字段的数组并不像您预期的那样工作。Lucene没有内部对象的概念,因此,ElasticSearch将对象层次结构变平为一个简单的字段名和值列表。例如,下面的文档

PUT my_index/_doc/1
{
    "group": "fans",
    "user": [
        {
            "first": "John",
            "last": "Smith"
        },
        {
            "first": "Alice",
            "last": "White"
        }
    ]
}

用户字段被动态地添加为一类对象字段

将会在内部被转换成一个更像这样的文档:

{
    "group": "fans",
    "user.first": [
        "alice",
        "john"
    ],
    "user.last": [
        "smith",
        "white"
    ]
}

User。User.first,user.last字段被平铺到多值字段中,而alice和white之间的关联丢失了。该文档将错误地匹配alice和smith的查询

如果您需要索引对象数组并维护阵列中每个对象的独立性,您应该使用嵌套数据类型,而不是对象数据类型。在内部,嵌套对象将数组中的每个对象作为单独的隐藏文档进行索引,这意味着每个嵌套的对象都可以独立地查询,并使用嵌套查询:

PUT my_index
{
    "mappings": {
        "_doc": {
            "properties": {
                "user": {
                    "type": "nested"
                }
            }
        }
    }
}
 
PUT my_index/_doc/1
{
    "group": "fans",
    "user": [
        {
            "first": "John",
            "last": "Smith"
        },
        {
            "first": "Alice",
            "last": "White"
        }
    ]
}
 
GET my_index/_search
{
  "query": {
    "nested": {
      "path": "user",
      "query": {
        "bool": {
          "must": [
            { "match": { "user.first": "Alice" }},
            { "match": { "user.last":  "Smith" }}
          ]
        }
      }
    }
  }
}
 
GET my_index/_search
{
  "query": {
    "nested": {
      "path":"user",
      "query":{
        "bool":{
          "must":[
            {"match":{"user.first":"Alice"}},
            {"match":{"user.last":"White"}}
          ]
        }
      },
      "inner_hits":{
        "highlight":{
          "fields":{
            "user.first": {}
          }
        }
      }
    }
  }
}


GET /my_index/blogpost/_search
{
  "query": {
    "bool": {
      "must": [
        {"match": {"title": "eggs" }},
        {"nested": {
            "path": "comments",
            "query": {
              "bool": {
                "must": [
                  {"match":{"comments.name": "john"}},
                  {"match": {"comments.age": 28}}
                ]
              }
            }
          }
        }
      ]
}}}

未完待续...

原文地址:https://www.cnblogs.com/ixan/p/9903545.html

时间: 2024-10-05 05:00:42

ElasticSearch学习文档2018.11的相关文章

Openstack python api 学习文档

Openstack python api 学习文档 转载请注明http://www.cnblogs.com/juandx/p/4953191.html 因为需要学习使用api接口调用openstack,所以上一篇写了一些使用openstack的纯api调用的方法, 但是openstack还提供了更好的python的api,只需要python的包即可,感觉更好使用. 对于compute的api,包是放在了/usr/lib/python2.7/site-packages/novaclient/目录,

2013 最新的 play web framework 版本 1.2.3 框架学习文档整理

Play framework框架学习文档 Play framework框架学习文档 1 一.什么是Playframework 3 二.playframework框架的优点 4 三.Play FrameWork开发入门 5 1.准备工作 5 2.新建项目 5 3.环境变量配置 7 4.MVC模型 8 app/controllers 9 app/models 9 app/views 9 5.应用程序布局 9 app目录 9 .class文件在哪儿? 9 public目录 10 conf目录 10 l

Windows Workflow学习文档

Windows Workflow学习文档   1     概念 2     Windows Workflow 2.1      .Net Framework 3.0 简介 2.2      Windows Workflow Foundation简介 3     开发环境搭建 4     Workflow模型 4.1      WF中流程模型 4.2      关键概念 5     Activity 5.1      什么是Activity 5.2      Activity的其他概念 5.3  

mfc学习---文档视图架构

MFC的AppWizard可以生成三种类型的应用程序:基于对话框的应用.单文档应用(SDI)和多文档应用(MDI). 一般情况下,采用文档/视结构的应用程序至少应由以下对象组成:       1.应用程序是一个CwinApp派生对象,它充当全部应用程序的容器.应用程序沿消息映射网络分配消息给它的所有子程序.       2.框架窗口是一CfrmeWnd派生对象.       3.文档是一个CDocument派生对象,它存储应用程序的数据,并把这些信息提供给应用程序的其余部分.       4.视

elasticsearch 路由文档到分片

路由文档到分片 当你索引一个文档,它被存储在单独一个主分片上.Elasticsearch是如何知道文档属于哪个分片的呢?当你创建一个新文档,它是如何知道是应该存储在分片1还是分片2上的呢? 进程不能是随机的,因为我们将来要检索文档.事实上,它根据一个简单的算法决定: shard = hash(routing) % number_of_primary_shards routing值是一个任意字符串,它默认是_id但也可以自定义.这个routing字符串通过哈希函数生成一个数字,然后除以主切片的数量

NodeJS-001-Nodejs学习文档整理(转-出自http://www.cnblogs.com/xucheng)

Nodejs学习文档整理 http://www.cnblogs.com/xucheng/p/3988835.html 1.nodejs是什么: nodejs是一个是javascript能在后台运行的平台,具体来时只是使code javascript能在后台运行,因为不在浏览器中运行所以不涉及到document等对象.(Mozilla 则指出 JavaScript 由Core JavaScript 和 Client JavaScript 组成.) 2.nodejs如何运行javascript: n

ElasticSearch部署文档(Ubuntu 14.04)

ElasticSearch部署文档(Ubuntu 14.04) 参考链接 https://www.elastic.co/guide/en/elasticsearch/guide/current/heap-sizing.html https://www.elastic.co/guide/en/elasticsearch/reference/current/setup-configuration.html#setup-configuration https://www.elastic.co/guid

Activit最入门学习文档,从如何创建项目开始共20章,看完,任何Java项目集成无压力

Activit流程引擎 本人水平,刚自学java一个多月,然后看视频做的笔记,全部傻瓜式截图教程,反正我学习之前没在网上搜索到任何小白教程, Activit官方的教程真心看不懂,因为都是文字 没具体创建步奏,所以对新手来说很无奈, 然后吧,就把自己的学习经验贡献出来啦 最小白的文档,看完之后,集成到任何java项目中都无压力,我最后的是做了个Jfinal集成,估计这是网上搜到最全的容易懂的入门学习文档,本人自学java一个月,反正我看官方例子什么的都看不懂,然后各搜素也没收到教程视频,还好有别人

solr学习文档之高亮

在<solr学习文档之添加分词词库>一文中,我们学习了如何对一个词组进行分词提取,这一章我们将会使用到分词词库,并介绍如何进行高亮展现 在此之前,我们先了解一下高亮的几个参数 hl:是否开启高亮组件,true为开启,false为不开启 hl.fl:需要开启的高亮字段,多个可用逗号隔开 hl.simple.pre:高亮字段前缀 hl.simple.post:高亮字段后缀 (其他的暂不介绍,想知道的可自行百度) 想要进行高亮站下,需要在schema.xml中将你的字段名(如topicContent