Elasticsearch 切换分区

场景: elasticsearch(下面简称es) 正常运行中,发现磁盘空间不够用,追加的硬盘后,想切到新磁盘。

环境: CentOS 6.5(Liunx通用)

开始:[注意:该方法不是最佳方法,还有修改配置文件制定数据文件路径]

  1. df -h 查看磁盘情况
  2. umount /home(es的所在的分区)

3.mount /[es新分区]

  1. cp -r [原来的es路径]/elasticsrearch [新的es路径]
  2. reboot 重启
  3. 启动 es

    nohup [es新目录]/elasticsearch/bin/elasticsearch start

7.完成

时间: 2024-11-06 17:31:01

Elasticsearch 切换分区的相关文章

SQL Server分区详解

一.SQL Server分区介绍 在SQL Server中,数据库的所有表和索引都视为已分区表和索引,默认这些表和索引值包含一个分区:也就是说表或索引至少包含一个分区.SQL Server中数据是按水平方式分区,是多行数据映射到单个分区.已经分区的表或者索引,在执行查询或者更新时,将被看作为单个逻辑实体,简单说来利用分区将一个表数据分多个表来存储,对于大数据量的表,将表分成多块查询,若只查询某个分区数据将降低消耗提高效率.需要注意的是单个索引或者表的分区必须位于一个数据库中. 在使用大量数据管理

优化SQLServer——表和分区索引(二)

简介     之前一篇简单的介绍了语法和一些基本的概念,隔了一段时间,觉得有必要细致的通过实例来总结一下这部分内容.如之前所说,分区就是讲大型的对象(表)分成更小的块来管理,基本单位是行.这也就产生了很大优势, 比如在数据库维护备份还原操作的时候,比如在大量用户访问能导致死锁的时候等等. 接下来我们通过大量实例从分区到展示分区的效果以及一些实际案例来提高对这部分知识的理解. --****************** --1.创建分区函数 --****************** --Create

linux下硬盘的分区:

提到硬盘的分区,以前就是很乱,有什么主分区/扩展分区/逻辑分区等;它们有什么区别呢?现在简单的了解一下: 由于在MBR的主引导记录中的分区表里面最多只能记录4个分区记录,这个不够用啊,为了解决这个问题,就允许创建一个扩展分区,在扩展分区里面我们可以继续分区(即逻辑分区);例如:我们最多可以创建4个主分区,当我们要创建6个分区时:我们可以创建3个主分区1个扩展分区,然后再在扩展分区里面创建3个逻辑分区;在主引导记录里面,只包含主分区与扩展分区的信息,而逻辑分区的信息都被保存在了扩展分区里面; 在L

优化SQLServer--表和索引的分区(二)

简介 之前一篇简单的介绍了语法和一些基本的概念,隔了一段时间,觉得有必要细致的通过实例来总结一下这部分内容.如之前所说,分区就是讲大型的对象(表)分成更小的块来管理,基本单位是行.这也就产生了很大优势, 比如在数据库维护备份还原操作的时候,比如在大量用户访问能导致死锁的时候等等. 接下来我们通过大量实例从分区到展示分区的效果以及一些实际案例来提高对这部分知识的理解. --****************** --1.创建分区函数             --******************

[MySQL Reference Manual] 20 分区

20 分区 20 分区... 1 20.1 MySQL的分区概述... 2 20.2 分区类型... 3 20.2.1 RANGE分区... 3 20.2.2 LIST分区... 5 20.2.3 COLUMNS分区... 7 20.2.3.1 RANGE COLUMNS分区... 7 20.2.3.2 LIST COLUMNS分区... 7 20.2.4 Hash分区... 8 20.2.4.1 LINEAR HASH分区... 8 20.2.5 Key分区... 9 20.2.6 子分区..

(五)Sql server分区自动化案例

需求定义 统计表可能达到每天1000万数据.只查询当天的数据用于统计,可归档三月前的数据.得出分区方案如下: 每天生成一个分区 归档三个月前的分区 基本架构 固定生成12个辅助数据库文件,将每年当月的分区数据存放到当月的数据文件中. 每个源表拥有一个独立的分区方案.且Staging表与源表拥有相同的分区方案. 提前自动按天生成新分区. 每天迁移历史的分区数据到当月备份表中(备份表按月新建) 一.添加文件和文件组(固定12个月文件) 该脚本添加12个月的文件和文件组:此步骤在新建数据库的时候同时完

(四)SQL Server分区管理

一.拆分分区(SPLIT) 在已有分区上添加一个新分区. 如下图所示,将分区03拆分成03和04分区,拆分方式先锁定旧03分区的所有数据,后将旧03分区相关数据迁移到分区04,最后删除旧03上的对应分区数据:这种操作大量消耗io,造成的io日志读写是转移数据的四倍.因此在管理分区上,一般提前添加分区:例如当前03分区没有数据的情况下,我们完成04分区的添加. 添加分区步骤: 1.指定下一个分区的文件组 2.拆分分区 --添加分区 USE [PartionTest] ALTER PARTITION

第十三章——表和索引分区(2)——使用拆分删除和加载大数据

原文:第十三章--表和索引分区(2)--使用拆分删除和加载大数据 前言: 很多时候需要对大数据量进行归档或者删除,并周期性加载大数据量到一个大表中,现在来做个简单的例子,你经常需要删除大数据量表中的大量数据.同时,你想加载大量数据到这个表中,当表中数据有数十亿时,这个操作可能消耗几个小时,但是如果你的表有分区,那么执行起来会很有效. 本文将模拟删除一个季度的数据,并加载整个季度到现有表,其中使用了拆分(splitting).合并(merging)和切换分区(switching). 假设我们需要存

ElasticSearch学习笔记--1、安装以及运行

Elasticsearch是一个基于Apache Lucene(TM)的开源搜索引擎,多的我就不细说了. 相关实验环境 Centos:7.3 ElasticSearch:5.6 java:1.8 1.检查java环境 java -version # 查看java版本yum install java-1.8.0-openjdk # jdk安装 java版本搞定好,就是安装ES. 2.安装ES.运行 官网下载地址 下载后直接解压缩,移动相应的目录即可.进入bin目录下即可启动程序 curl -L -