本地采用12小时一备同时上传异地
‘文件备份目录创建auto_bak,我放在/usr/local/目录下
[[email protected] local]#mkdir auto_bak
[[email protected] local]#cd auto_bak
‘编写备份脚本
[[email protected] auto_bak]#vi auto_bak_db.sh
#!/bin/sh
#delete old file
rm -rf /usr/local/auto_bak/dbname*
#backup the datebase file to
/usr/local/mysql/bin/mysqldump -u 90sec admin dbname >/usr/local/auto_bak/dbname.sql
#ftp the file to 192.168.0.1
#login in Ftp server and transfer the file
ftp -i -n <<end
open 192.168.0.1
user ftp admin
#turn to local directory
lcd /usr/local/auto_bak/
#transfer the file and add time lable
put /usr/local/auto_bak/dbname.sql dbname`date -d today +"20%y-%m-%d"~"%H:%M"`.sql
quit
end
‘添加权限
[[email protected] auto_bak]#chmod +x auto_bak_db.sh
二、使用crontab定时执行auto_bak_db.sh
[[email protected] local]#crontab -u root -e
#每12小时备份一次,并记录到日志
0 */12 * * * /usr/local/auto_bak/auto_bak_db.sh 1>/usr/local/auto_bak/auto_bak_db.log 2>&1
本地和异地ftp传输备份脚本
时间: 2024-10-17 08:40:03
本地和异地ftp传输备份脚本的相关文章
自动FTP 登录备份脚本
#!/usr/bin/sh #此脚本放在/kior/domains10/kiorapp/shellDir/upLoadFileTo/ 路径下 #本地路径 LDIR="/kior/domains10/kiorapp/tmp/needBak/backFile/" #目标路径 RDIR="/kiordata/interface/WebTrade/input" RHOST="192.168.8.32" USER="ftpbatch"
度量系统服务端文件本地异地差异备份(增量备份)脚本示例
度量产品部署好服务端后,因为服务端有各类封装加密的附件,文件等资料,为保障数据安全,除了建立高可用性的备份机制外,我们可以通过批处理脚本,结合到系统计划进行本地或异地备份,为考虑容量情况,也可以采用增量备份进行.下面代码是一个示例批处理脚本,可以按照自己的思路编写简单而强大的服务端备份策略: @echo offREM ************************************************************REM *服务端文件增量备份,每年的数据保存在DestDir
mysql自动备份脚本及异地定时FTP
分享个自己写的mysql自动备份脚本.定时执行设置及windows自动FTP,请大家指教. 前提环境:mysql数据库服务器开启vsftpd,并配置合适帐号以便能被内网存储服务器FTP 第一步:编写mysql自动执行脚本 #!/bin/sh # mysql_db_backup.sh: backup mysql databases. # # Last updated: Wed Nov 9 07:01:01 CST 2011 # ----------------------------------
linux计划任务自动备份并ftp上传脚本
#!/bin/sh # 备份 #bak_dir=`date +%C%y%m%d%H%M` ##文件命名规则可以是时间 backup_dir=/home/IPTV4.9 ##存储备份文件路径 mkdir -p $backup_dir Ip_addr=`ifconfig \`route |grep default |awk '{print $8}'\` |grep Bcast |awk -F: '{print $2}' |awk '{print $1}'` Host_name=`hostname`
linux服务器本地和百度云备份脚本小试
本地单文件上传脚本,命名uf 这是在本机上做的测试,利用bpcs_uploader脚本实现,只是进行简单的封装,自动完善云端文件路径. 技术要点:使用dirname获取文件所在目录,使用pwd获取文件完整路径,并作为云端文件路径. #!/bin/bash cur_dir=$(cd "$(dirname "$1")"; pwd) name=$(basename "$1") /home/grm/bin/bpcs_uploader/bpcs_uploa
由ftp传输脚本引发的服务器内存问题
由于近期不断收到告警邮件,提示某服务器的内存使用率已经超过90%,便去查看zabbix监控,通过监控图,发现内存使用率是呈上涨趋势的,如此下去,内存枯竭是必然的事.并且,这种持续上涨的问题,通过增加内存并不是根本的解决方法,于是,就有了下面的探索之旅.监控如图所示: 首先,登录服务器,使用 "top" 命令查看当前较为占用内存的进程,发现排在前十的进程所占用的总内存也只有50%左右.于是,又通过 "ps aux" 命令查看所有进程,发现存在大量重复的进程,就是ftp
Linux自动备份脚本--解析
由于上次做项目的时候,客户要求需要对系统状态做自动备份,当时觉得自己写得脚本实在是不够上档次,就开始在网上搜索各种比较好的脚本,现在找到了一个还挺不错的脚本,与大家一起来解析分享一下.其实我第一遍看的时候中间有一小部分没有弄懂,觉得里面的语法真的是用的恰到好处,不过还是稍稍修改了一点. #说明使用的是bash语法来写脚本 #!/bin/bash #设置日志文件,前提建好了/backup/log目录 LogFile=/backup/log/`date +"%Y-%m"`.lo
linux 自动备份脚本
首先我在/root/backup 目录下建立一个文件夹, #mkdir /root/backup/mysqlbackup 以后在每天五点钟,就会有一个文件保存在这里. 接着新建文件 #vim /root/mysqlautobak 输入: filename=` date +%Y%m%d ` mysqldump --all-databases -uroot -p(mysql密码)> /root/backup/mysqlbackup/mysql$file.sql 保存退出! 让它可以执行 #chomd
LINUX 自动备份脚本文件
首先我在/root/backup 目录下建立一个文件夹, #mkdir /root/backup/mysqlbackup 以后在每天五点钟,就会有一个文件保存在这里. 接着新建文件 #vim /root/mysqlautobak 输入: filename=` date +%Y%m%d ` mysqldump --all-databases -uroot -p(mysql密码)> /root/backup/mysqlbackup/mysql$file.sql 保存退出! 让它可以执行 #chomd