备份schema并排除大表到ASM磁盘上

1.查出占用空间比较大的表

select owner,segment_name,segment_type,bytes/1024/1024 mb from dab_segment where owner=‘RM‘ order by mb desc

2.查出ASM的路径

select * from dba_data_files;

3.到ASM路径下手工创建目录

su - grid  asmcmd   ASM>cd +DATA     ASM>mkdir expdp1

4.到本地目录下创建logfile.(用root用户)

cd /home/oracle     mkdir expdp1.log

5.创建directory,并赋权给导出用户

>create directory expdp1 as ‘+DATA/expdp1‘;

>grant read,write on directory expdp1 to rm;

6.设置log文件存放位置,并赋权限

>create or replace directory logdir as ‘/oracle/home‘;

>grant read,write on directory logdir to rm;

7.执行导出备份

expdp rm/rmlb2017 directory=expdp1 dumpfile=expdp1.log logfile=LOGDIR:expdp1.log schemas=rm exclude=table:"IN(‘RECG_SUSP_RESULT_PHOTO‘)",table :"IN(‘VMC_ALARM_PIC‘)";

时间: 2024-10-13 10:13:07

备份schema并排除大表到ASM磁盘上的相关文章

备份oracle中的大表

将原标进行rename操作:RENAME loganalysis to loganalysis_bak; 压缩备份表:alter table LOGANALYSIS_bak move compress; 查看备份表的索引字段:SELECT * from user_cons_columns where TABLE_NAME='LOGANALYSIS_BAK'; 清除备份表的索引:alter table LOGANALYSIS_BAK drop constraint SYS_C005697; 查看备

mysql 生产库大表delete

mysql 生产库大表删除 一般线上业务增长较快,造成某些表达到分表的临界值,表行数超过2000w且查询频繁,如表业务没有较多的聚合查询的话,可以考虑按时间归档部分历史数据.现推荐2种本人之前使用过的删除方式. 按照主键或者索引拆分后分段执行,使用存储过程 需要注意这种大表删除,如果是在主库执行,尽量把会话改成语句格式,以保证不会出现复制延迟 语句如下:set session binlog_format='STATEMENT'; CREATE PROCEDURE sp_delete_data()

ASM 磁盘、目录的管理

--======================== -- ASM 磁盘.目录的管理 --======================== ASM磁盘是ASM体系结构的重要组成部分,ASM磁盘由ASM实例来定位.管理,本文主要讲述ASM磁盘组.故障组等等. 有关ASM实例及ASM数据库的创建请参考:创建ASM实例及ASM数据库 一.相关概念 1.ASM 磁盘组 ASM存储管理除了ASM实例之外,最大的组成部分就是ASM磁盘组.一个ASM磁盘组由过多个ASM磁盘组成 一个磁盘组内可以存放多个数据文

mysqldump 备份时排除某些表的脚本

我们有个数据库用 mysqldump备份 后来备份的速度越来越慢,备份文件也越来越大.检查的时候发现有两个表非常大而且没有必要备份,所以决定备份这个库的时候排除他们两个.可是mysqldump可没有排除某个表这个选项,那么就用shell脚本来实现吧!   我这里就用cactidb来举例吧,我这里不备份 snmp_query_graph_rrd_sv表和 rra表,先把需要备份的表列出来,这样写mysql -u root cactidb -e "show tables;" | awk '

MySQL大表备份的简单方法

MySQL大表备份是一个我们常见的问题,下面就为您介绍一个MySQL大表备份的简单方法,希望对您学习MySQL大表备份方面能有所帮助. 这里所说的大表是超过4G以上的表,我目前见到过最大为60多G的单表,对于这种表每天一个全备可以说是一件很痛苦的事.那么有没有办法,可以实现一个全备加增量的备份呢.答案当然是有的. 在常规环境直可以用全备加binlog一同保存.这种环境大多可以用一个Slave上进行备份操作. 思路:先停止Slave的同步,刷新buffer,对于Innodb 如果想直接拷贝还需要把

详解MySQL大表优化方案

当MySQL单表记录数过大时,增删改查性能都会急剧下降,可以参考以下步骤来优化: 单表优化 除非单表数据未来会一直不断上涨,否则不要一开始就考虑拆分,拆分会带来逻辑.部署.运维的各种复杂度,一般以整型值为主的表在千万级以下,字符串为主的表在五百万以下是没有太大问题的.而事实上很多时候MySQL单表的性能依然有不少优化空间,甚至能正常支撑千万级以上的数据量: 字段 尽量使用TINYINT.SMALLINT.MEDIUM_INT作为整数类型而非INT,如果非负则加上UNSIGNED VARCHAR的

MySQL 大表优化方案探讨

当MySQL单表记录数过大时,增删改查性能都会急剧下降,可以参考以下步骤来优化: 单表优化 除非单表数据未来会一直不断上涨,否则不要一开始就考虑拆分,拆分会带来逻辑.部署.运维的各种复杂度,一般以整型值为主的表在千万级以下,字符串为主的表在五百万以下是没有太大问题的.而事实上很多时候MySQL单表的性能依然有不少优化空间,甚至能正常支撑千万级以上的数据量: 字段 尽量使用TINYINT.SMALLINT.MEDIUM_INT作为整数类型而非INT,如果非负则加上UNSIGNED VARCHAR的

用HAWQ轻松取代传统数据仓库(八) —— 大表分区

一.HAWQ中的分区表        与大多数关系数据库一样,HAWQ也支持分区表.这里所说的分区表是指HAWQ的内部分区表,外部分区表在后面"外部数据"篇讨论.在数据仓库应用中,事实表通常有非常多的记录,分区可以将这样的大表在逻辑上分为小的.更易管理的数据片段.HAWQ的优化器支持分区消除以提高查询性能.只要查询条件中可以使用分区键作为过滤条件,那么HAWQ只需要扫描满足查询条件的分区,而不必进行全表扫描.        分区并不改变表数据在segment间的物理分布.表的分布是物理

MySQL大表优化方案

当MySQL单表记录数过大时,增删改查性能都会急剧下降,可以参考以下步骤来优化: 单表优化 除非单表数据未来会一直不断上涨,否则不要一开始就考虑拆分,拆分会带来逻辑.部署.运维的各种复杂度,一般以整型值为主的表在 千万级 以下,字符串为主的表在 五百万 以下是没有太大问题的.而事实上很多时候MySQL单表的性能依然有不少优化空间,甚至能正常支撑千万级以上的数据量: 字段 尽量使用 TINYINT . SMALLINT . MEDIUM_INT 作为整数类型而非 INT ,如果非负则加上 UNSI