解决docker数据文件过大导致根磁盘满的问题

背景:

最近在线上使用的docker主机发现根目录容量快满了,一番查找,发现是docker的data文件过大了。     我们知道docker数据默认是存放在/var/lib/docker下的,我们可以在启动时用-g --graph=""参数,把数据目录更改到其他容量大的地方去。但是对于在使用中的docker来说,直接修改这个目录路径,会导致镜像和容器都丢失了,所以修改参数这个方法适用于初始化docker的时候使用。

对于又想解决根分区容量满,又不想更改数据存储路径的我来说,我不想更改任何docker的参数和数据,所以我在自己的虚机机环境上尝试把这些数据迁移到容量较大的磁盘上去,再用链接的方式把数据链接到原来的位置,保证环境尽可能不变动。

操作:

1:关闭docker容器和docker进程:

# /etc/init.d/docker stop

2:迁移数据:(假设我要迁移到/mnt/docker)

# mv /var/lib/docker /mnt/

3:制作目录链接

# ln -s /mnt/docker /var/lib/docker
#  cd /var/lib
# ll
lrwxrwxrwx  1 root    root      11 Apr 13 10:52 docker -> /mnt/docker

4:启动docker和容器:

# /etc/init.d/docker start

该实验在我的环境中测试有效。应该没有什么大问题,如果有什么忽略的地方,请大家指正!

时间: 2024-07-29 09:47:40

解决docker数据文件过大导致根磁盘满的问题的相关文章

单实例,当MongoDB单表数据文件太大导致写入速度变慢

解决办法(待测试): 文件拆分成小文件.主要参数有 Storage options: --storageEngine arg what storage engine to use - defaults to wiredTiger if no data files present --directoryperdb each database will be stored in a separate directory --quota limits each database to a certai

大开测试:性能—如何解决数据库查询结果过大导致录制失败(连载3)

7.3  如何解决数据库查询结果过大导致录制失败 1.问题提出 在进行一个进销存管理应用系统测试过程中,发现在进行查询后,由于查询结果数据记录条数过多,而引起后续脚本无法继续录制. 2.问题解答 我们在测试过程中发现,很多设置和数据库应用相关.这个问题的解决方法可以通过设置Vugen.ini的CmdSize项完成. Vugen.ini文件存放于Windows系统目录下,首先查找是否在该文件中存在"[SQLOracleInspector]"项,并且查看是否已经存在"CmdSiz

sql点滴39—解决数据库日志文件过大的问题

原文:sql点滴39-解决数据库日志文件过大的问题 随着数据库使用时间增长,日志文件也在不停的增大,这里介绍几种方法减小这个文件的方法. 1.直接删除log文件 分离数据库.分离数据库之前一定要做好数据库的全备份,选择数据库——右键——任务——分离,如下图 将日志文件和数据文件复制粘贴到另外一个文件夹中以防万一.删除链接,如下图 直接删除日志文件,然后再附加数据库,如下图 附加的时候会自动将ldf文件和mdf文件都附加上,但是会提示找不到ldf文件,没关系,选中ldf文件这一行,点击下面的删除按

怎么解决apache日志文件太大的问题

原文地址:http://un173.blog.51cto.com/8263566/1598346 管理apache服务器有些年头,虽然最近几年被nginx抢了不少风头,但我依然钟爱apache. 喜欢它强劲的并发处理能力,以及forker与worker模式间自由选择的快感,哈哈. 熟悉linux下apache运维的朋友,多少都会遇到过apache日志文件太大的问题,网站刚上线时不会在意到这个问题,因为流量小,自然error.log与access.log文件内容也就少,文件容量不大,因此,配置时也

ORACLE ASM中查询表空间使用情况、数据文件路径、裸设备磁盘总大小剩余大小

在ASM中:查询所有磁盘名称.总大小.剩余大小:单位MB-----查看组的信息(总大小)select name,total_mb, free_mb from v$asm_diskgroup; ---查看磁盘成员信息分别大小select name,total_mb,free_mb from v$asm_disk; 或者: [[email protected]]asmcmdASMCMD>lsdg 查询表空间数据文件路径和总大小:单位MBSELECT tablespace_name,file_id,f

解决sql脚本文件太大无法打开的问题

as we known,sql数据库高版本向低版本还原是不太可能但是又经常会碰到的事,今天实测了一种方法 步骤:任务->生成脚本-> 下一步->高级,选择数据库版本和编写脚本数据类型为架构和数据,可以保留数据. 继续下一步完成. 最终得到一个巨大的sql脚本文件 ->接下来首先要在低版本数据库中新建一个目标数据库,然后运行sql脚本文件即可 一般的sql文件我们都是直接在SqlServer的查询窗口直接执行的,但是这个巨大的sql文件实在是太大了,SqlServer甚至是记事本都无

Oracle 监听器日志文件过大导致监听异常报ORA-12514 TNS 错误

出现问题现象:ORA-12514 TNS 监听程序当前无法识别连接描述符中请求服务或者如下图: 应用异常,无法连接数据库.登陆数据库服务器,查看监听已经断掉.尝试重启监听,重启失败.检查看监听日志listener.log的大小是否已经超过4G. 解决方法: 删除listener.log(删除前可以先做备份),然后重启监听.监听重启后会自动创建一个新的日志文件. 补充: 在监听进程运行时,无法对listener.log做删除或者重命名操作. ----------------------------

导入数据 文件太大 报错

在sql 文件头部,写入这几个信息即可 set global max_allowed_packet=100000000;set global net_buffer_length=100000;SET GLOBAL interactive_timeout=28800000;SET GLOBAL wait_timeout=28800000;

angular8 打包时 文件过大 导致内存溢出解决方案(记录)

在package.json 中添加 "scripts": { "ng": "ng", "start": "ng serve", "build": "ng build", "test": "ng test", "lint": "ng lint", "buildTest":