elasticsearch 之mapping

搭好elk 后,有时候会发现kibana 统计数据时,数据类型不对,这个时候就和elasticsearch的mapping有关,虽然我们可以用logstash修改传入es里的数据类型,比如 float 或者int 或者string。但是没有double等类型,就算转换了,你会发现写入es的数据还是根据es里mapping表来定义的。接下来我们来学习修改es的mapping,当然mapping的功能有很多种,比如定义索引是否分词,分片和副本的数量是多少等等。

1) 什么是mapping

ES的mapping非常类似于静态语言中的数据类型:声明一个变量为int类型的变量, 以后这个变量都只能存储int类型的数据。同样的, 一个number类型的mapping字段只能存储number类型的数据。

同语言的数据类型相比,mapping还有一些其他的含义,mapping不仅告诉ES一个field中是什么类型的值, 它还告诉ES如何索引数据以及数据是否能被搜索到。

当你的查询没有返回相应的数据, 你的mapping很有可能有问题。当你拿不准的时候, 直接检查你的mapping。

2) 剖析mapping

一个mapping由一个或多个analyzer组成, 一个analyzer又由一个或多个filter组成的。当ES索引文档的时候,它把字段中的内容传递给相应的analyzer,analyzer再传递给各自的filters。

filter的功能很容易理解:一个filter就是一个转换数据的方法, 输入一个字符串,这个方法返回另一个字符串,比如一个将字符串转为小写的方法就是一个filter很好的例子。

一个analyzer由一组顺序排列的filter组成,执行分析的过程就是按顺序一个filter一个filter依次调用, ES存储和索引最后得到的结果。

总结来说, mapping的作用就是执行一系列的指令将输入的数据转成可搜索的索引项。

3)实战转换mapping数据类型

我们使用logstash 传入一个索引,这个时候这个索引加载的为默认mapping,如下

{

  • "parking_total": {

    • "mappings": {

      • "parking_total": {

        • "properties": {

          • "@timestamp": {

            • "type": "date",
            • "format": "strict_date_optional_time||epoch_millis"

            },

          • "@version": {
            • "type": "string"

            },

          • "active": {
            • "type": "string"

            },

          • "host": {
            • "type": "string"

            },

          • "kafka": {
            • "properties": {

              • "consumer_group": {

                • "type": "string"

                },

              • "msg_size": {
                • "type": "long"

                },

              • "offset": {
                • "type": "long"

                },

              • "partition": {
                • "type": "long"

                },

              • "topic": {
                • "type": "string"

                }

              }

            },

          • "logdate": {
            • "type": "string"

            },

          • "message": {
            • "type": "string"

            },

          • "path": {
            • "type": "string"

            },

          • "total": {
            • "type": "string"

            },

          • "type": {
            • "type": "string"

            }

          }

        }

      }

    }

}

其中我们就是要修改 total 和 active 这2个字段,修改mapping时需要将索引全部删除。这里我们来操作一下

接下来,我们先创建这个索引的mapping 因为索引没有的时候,mapping也可以存在,其实是删除索引的时候mapping 不会跟着删除的,当然创建的时候,如果有的字段没有定义,mapping 会自动按照默认来定义。

{  "mappings":
          {
        "parking_total" : {  
            "properties" : {  
                "@timestamp" : {  
                    "type" : "date"  
                },  
                "message" : {  
                    "type" : "string"  
                },  
                "total" : {  
                    "type" : "double"  
                },  
                 "active" : {  
                    "type" : "double"  
                }
            }  
        }  
    }  
 }

这样在重新导入数据,就成功啦。

                                                  by:V

时间: 2024-09-30 19:41:51

elasticsearch 之mapping的相关文章

ELK学习总结(4-1)elasticsearch更改mapping(不停服务重建索引)

elasticsearch更改mapping(不停服务重建索引)原文 http://donlianli.iteye.com/blog/1924721Elasticsearch的mapping一旦创建,只能增加字段,而不能修改已经mapping的字段.但现实往往并非如此啊,有时增加一个字段,就好像打了一个补丁,一个可以,但是越补越多,最后自己都觉得惨不忍睹了.怎么办??这里有一个方法修改mapping,那就是重新建立一个index,然后创建一个新的mapping.你可能会问,这要是在生产环境,可行

通过Java的Domain类构建ElasticSearch的mapping

通过给定一个Java的class类自行创建ElasticSearch的mapping Order的domain类 public class Order { public String system_id; public String finger_id; public String merchant_id; public Double tx_money; public String pay_date; public String payment_status; public Date settl

elasticsearch 的mapping根据不同的数据格式设定属性

申明:学习探讨笔记,非结果性定义.里面很多可能是错误的,参考价值不大 elasticsearch 的mapping 订单号 如:ATTS000928732 类型不分词. index: not_analyzed 订单号是全部数据 如: 63745345637  这样的分词是可以的. PUT /Order_v5 { "settings": {      //设置10个分片,理解为类似数据库中的表分区中一个个分区的概念,不知道是否妥当      "number_of_shards&

elasticsearch的mapping和analysis

转发自:http://blog.csdn.net/hzrandd/article/details/47128895 分析和分析器 分析(analysis)是这样一个过程: 首先,表征化一个文本块为适用于倒排索引单独的词(term) 然后标准化这些词为标准形式,提高它们的"可搜索性"或"查全率" 这个工作是分析器(analyzer)完成的.一个分析器(analyzer)只是一个包装用于将三个功能放到一个包里: 字符过滤器 首先字符串经过字符过滤器(character

(转)Elasticsearch索引mapping的写入、查看与修改

mapping的写入与查看 首先创建一个索引: curl -XPOST "http://127.0.0.1:9200/productindex" {"acknowledged":true} 现在只创建了一个索引,并没有设置mapping,查看一下索引mapping的内容: curl -XGET "http://127.0.0.1:9200/productindex/_mapping?pretty" { "productindex&quo

Elasticsearch索引mapping的写入、查看与修改

mapping的写入与查看 首先创建一个索引: curl -XPOST "http://127.0.0.1:9200/productindex" {"acknowledged":true} 现在只创建了一个索引,并没有设置mapping,查看一下索引mapping的内容: curl -XGET "http://127.0.0.1:9200/productindex/_mapping?pretty" { "productindex&quo

ElasticSearch添加mapping

1.创建索引 /** * 创建索引 * * @param indexName */public static void createIndex(String indexName) { //插入前删除,以免报错 boolean flag = client.admin().indices().exists(new IndicesExistsRequest().indices(new String[]{indexName})).actionGet().isExists(); if (flag){ cl

curl方式创建elasticsearch的mapping

curl -XPUT 'http://192.168.1.105:9200/bank/item2/_mapping' -d '{ "item2": { "properties": { "title": { "type": "string", "boost": 2.0, "index": "analyzed", "store":

基于ELK5.1(ElasticSearch, Logstash, Kibana)的一次整合测试

前言开源实时日志分析ELK平台(ElasticSearch, Logstash, Kibana组成),能很方便的帮我们收集日志,进行集中化的管理,并且能很方便的进行日志的统计和检索,下面基于ELK的最新版本5.1进行一次整合测试. ElasticSearch1.概述:ElasticSearch是一个高可扩展的开源的全文搜索分析引擎.它允许你快速的存储.搜索和分析大量数据.ElasticSearch通常作为后端程序,为需要复杂查询的应用提供服务.Elasticsearch是一个基于Lucene的开