ElasticSearch的各种服务的URL

1.curl 192.168.106.58:9200/_cat/health?v  集群健康查看
epoch      timestamp cluster       status node.total node.data shards pri relo init unassign 
1400639131 10:25:31  elasticsearch green           1         1     18  18    0    0        0
2. curl 192.168.106.58:9200/_cat/nodes?v 节点健康查看

host    ip             heap.percent ram.percent load node.role master name   
wendah1 192.168.106.58           55          59 6.65 d         *      Primus

3.curl 192.168.106.58:9200/_cat/indices?v  列出集群索引

health index        pri rep docs.count docs.deleted store.size pri.store.size 
green  autoindex      6   0    1800000            0    854.4mb        854.4mb 
green  autoindex111   6   0    1400000            0    864.4mb        864.4mb 
green  product        6   0    3000000            0      1.2gb          1.2gb

4.curl -XPUT 192.168.106.58:9200/customer?pretty 创建customer索引 pretty表示打印json响应

{
  "acknowledged" : true
}

5.curl -XPUT 192.168.106.58:9200/customer/external/1?pretty ‘-d { "name":"JOhn Doe"}‘ 索引数据

6.curl -XGET 192.168.106.58:9200/customer/external/1?pretty get查询数据

7. curl -XDELETE 192.168.106.58:9200/customer?pretty 删除索引

8.curl -XPUT 192.168.106.58:9200/customer/external/1?pretty ‘-d { "name":"JOhn Doe"}‘ 通过id更新索引数据

9.curl -XPOST 192.168.106.58:9200/customer/external?pretty ‘-d { "name":"JOhn Doe"}‘ 出入索引数据随机id

10.curl -XDELETE 192.168.106.58:9200/customer/external/2?pretty 通过id删除

11.curl -XDELETE ‘192.168.106.58:9200/customer/external/_query?pretty‘ -d ‘
{
  "query": { "match": { "name": "John" } }
}‘ 通过查询删除

12.curl -XPOST ‘192.168.106.58:9200/customer/external/_bulk?pretty‘ -d ‘
{"index":{"_id":"1"}}
{"name": "John Doe" }
{"index":{"_id":"2"}}
{"name": "Jane Doe" }

curl -XPOST ‘192.168.106.58:9200/customer/external/_bulk?pretty‘ -d ‘
{"update":{"_id":"1"}}
{"doc": { "name": "John Doe becomes Jane Doe" } }
{"delete":{"_id":"2"}}

13 curl -XPOST ‘192.168.106.58:9200/bank/account/_bulk?pretty‘ --data-binary @accounts.json 读文件批量索引

批量索引操作

14 curl -XPOST ‘192.168.106.58:9200/bank/_search?pretty‘ -d ‘
{
  "query": {
    "bool": {
      "must": [
        { "match": { "address": "mill" } },
        { "match": { "address": "lane" } }
      ]
    }
  }
}‘ query DSL(后期详细介绍)

15 curl 192.168.106.58:9200/_nodes/process?pretty 查看进程信息 包括打开文件数,是否锁定内存等

索引相关

URL 说明
/index/_search 不解释
/_aliases 获取或操作索引的别名
/index/  
/index/type/ 创建或操作类型
/index/_mapping 创建或操作mapping
/index/_settings 创建或操作设置(number_of_shards是不可更改的)
/index/_open 打开被关闭的索引
/index/_close 关闭索引
/index/_refresh 刷新索引(使新加内容对搜索可见)
/index/_flush
刷新索引

将变动提交到lucene索引文件中

并清空elasticsearch的transaction log,

与refresh的区别需要继续研究

/index/_optimize 优化segement,个人认为主要是对segement进行合并
/index/_status 获得索引的状态信息
/index/_segments 获得索引的segments的状态信息
/index/_explain 不执行实际搜索,而返回解释信息
/index/_analyze 不执行实际搜索,根据输入的参数进行文本分析
/index/type/id 操作指定文档,不解释
/index/type/id/_create 创建一个文档,如果该文件已经存在,则返回失败
/index/type/id/_update 更新一个文件,如果改文件不存在,则返回失败
   

Distributed

URL 说明
/_cluster/nodes 获得集群中的节点列表和信息
/_cluster/health 获得集群信息
/_cluster/state 获得集群里的所有信息(集群信息、节点信息、mapping信息等)

Nodes

URL 说明
/_nodes/process 我主要看file descriptor 这个信息
/_nodes/process/stats 统计信息(内存、CPU能)
/_nodes/jvm 获得各节点的虚拟机统计和配置信息
/_nodes/jvm/stats 更详细的虚拟机信息
/_nodes/http 获得各个节点的http信息(如ip地址)
/_nodes/http/stats 获得各个节点处理http请求的统计情况
/_nodes/thread_pool
获得各种类型的线程池

(elasticsearch分别对不同的操作提供不同的线程池)的配置信息

/_nodes/thread_pool/stats 获得各种类型的线程池的统计信息
   

以上这些操作和可以通过如

/_nodes/${nodeId}/jvm/stats

/_nodes/${nodeip}/jvm/stats

/_nodes/${nodeattribute}/jvm/stats

的形式针对指定节点的操作。

其他

/_template/templateName 创建索引配置模板,比如默认的mapping

/_percolator/indexName/percolatorName 创建percolator(这个词怎么翻译成中文,是个问题)

/index/type/_percolate/ 对payload中指定的文档进行”反

结束语

将url列出,个人觉得,对把握整个elasticsearch的概念和系统结构很有帮助,下一步需要针对重点内容(_search必然是重点内容)逐个研究。

参考文献:http://wwwlouxuemingcom.blog.163.com/blog/static/209747822013287138100/

时间: 2024-10-10 20:30:56

ElasticSearch的各种服务的URL的相关文章

Dynamic CRM 2015学习笔记(4)修改开发人员资源(发现服务、组织服务和组织数据服务)url地址及组织名

在azure vm上安装了CRM 2015后 Dynamic CRM 2015学习笔记(1)Azure 上安装 CRM 2015, 发现了一个问题,那就是在设置 ->自定义项 –> 开发人员资源 里面的几个ulr(发现服务.组织服务和组织数据服务)都不对,显示的都是http://机器名/XRMServices/2011/ -, 但这个url是访问不了的,正确的url应该是 http://xxx.cloudapp.net/XRMServices/2011/ - 下面介绍如何修改成正确的url.

Nginx笔记:支持对用户提交URL和服务的URL不一致时,保持对POST提交的支持

用户访问的URL和服务的URL不一致,需要对URL修改,同时使用的是POST提交方式 location ~* ^/portalproxy/([0-9]*)/portal$ { #rewrite '^/portalproxy/([0-9]*)/portal$' http://$host/portalproxy/portal?url_timetemp=$1 break; proxy_pass http://portalproxy/portalproxy/portal?url_timetemp=$1&

ElasticSearch(ES)预警服务 Watcher安装以及探究

最近公司需求要搭建一个监控系统,用来监控程序运行状态,请求曲线,错误日志发生次数,等等分析,保障系统稳定性.因此最近研究了基于Lucene 号称企业级搜索服务的ElasticSearch ,用了一段时间发现速度还真快,对百万级甚至千万级的数据检索毫无压力,比之前用的MongoDB速度快了不少. ElasticSearch服务安装过程这里就不在说了,有了监控之后应该还需给开发人员发送邮件,告知某项错误已经达到某个阀值,应该关注去分析解决发生错误的原因,进一步发现程序上的bug,然后fix掉,下面隆

分布式搜索引擎Elasticsearch安装配置

分布式搜索引擎Elasticsearch 介绍 Elasticsearch是一个基于Lucene的开源分布式搜索引擎,具有分布式多用户能力.Elasticsearch是用java开发,提供Restful接口,能够达到实时搜索.高性能计算:同时Elasticsearch的横向扩展能力非常强,不需要重启服务,基本上达到了零配置.但是目前来说相关资料很少,同时版本更新很快,bug存在,API繁多并且变化. 概念和设计 索引 索引(index)是Elasticsearch存放数据的地方.如果你熟悉关系型

ElasticSearch入门简介

ElasticSearch是基于Apache Lucene的分布式搜索引擎, 提供面向文档的搜索服务.本文以6.2.3版本为例介绍ElasticSearch的应用. 本文首先介绍ElasticSearch中的索引和文档的概念,并在系列的其它文章进行更进一步的介绍. 目录: 创建文档 访问文档 更新文档 删除文档 可以在官网下载压缩包, 在解压目录中执行bin/elasticsearch来启动服务, 或者使用包管理器来安装启动. ES默认端口为9200, 本地启动ES后向http://localh

ElasticSearch之Windows下安装

软件环境: Jdk1.8 elasticsearch5.0.0 kibana5.0.0 安装Java JDK   省略... 安装ElasticSearch   下载地址https://www.elastic.co/ 下载并解压到D:\elasticsearch 1.直接双击安装方式 右键管理员身份运行\bin\elasticsearch.bat 访问http://localhost:9200/ 返回json格式数据则表示成功 如果关闭cmd窗口就会停止服务 2.安装成windows服务方式 打

Appium+Python app自动化测试之脚本启动和停止Appium服务

研究了一段时间的Appium android app的自动化测试,工作中需要连接多台手机终端同时执行测试用例,我实现的方式是获取用例中需要执行用例的设备id个数以及实际连接到的设备数(通过adb devices获取),然后启动相应数量的Appium 服务,以便每个设备执行时并发进行并且互不影响.当然也可以通过selenium grid来实现,只是目前还在学习研究中,还是先把目前启动多个appium服务实现的方式记录下来. 一.Windows下启动单个appium服务 需要启动多个appium服务

centos7安装elasticsearch

1. jdk的安装配置 首先是要安装jdk的, yum list java* yun install java-1.7.0-openjdk.x86_64 然后需要设置一下JAVA_HOME环境变量,那么问题来了,刚才安装的jdk路径在哪? rpm -qa | grep java 看一眼,然后发现有个包叫java-1.7.0-openjdk-1.7.0.111-2.6.7.2.el7_2.x86_64 rpm -ql java-1.7.0-openjdk-1.7.0.111-2.6.7.2.el7

利用OpenShift托管Node.js Web服务进行微信公众号开发

最近写了一个微信的翻译机器人.用户只要关注该微信号,发送英文的消息,就能收到中文翻译的回复.后台是用Node.js写的,托管在OpenShift的Paas平台上.翻译过程实际上是调用微软的Bing translation API做的,代码中用到了alexu84的bing-translate和JacksonTian的wechat这两个npm模块.下面把做的过程详细说一下. 1. 微信公众号开发 首先是要到https://mp.weixin.qq.com 申请一个公众号,并申请成为开发者.目前个人只