一.安装配置FTP: # yum -y install vsftpd # service vsftpd start # ss -tunlp | grep 21 //添加本地FTP登录用户ftpuser # useradd ftpuser # echo 123456 | passwd --stdin ftpuser # cd /etc/vsftpd/ # cp vsftpd.conf vsftpd.conf.bak # vim vsftpd.conf //允许本地用户登录FTP且对FTP具有写权限
需求: 文本中第一列字符相等时,第二列相加 ,最后输出字符和最后的和(为了方便最后核对,都给了1) 文本如下: cat test.log abc 1 aaa 1 bbb 1 ddd 1 sss 1 iii 1 abc 1 sss 1 ddd 1 ddd 1 ddd 1 ddd 1 bbb 1 bbb 1 bbb 1 bbb 1 bbb 1 思路1: awk把第一列取出,然后排序sort,去重uniq,赋值给变量x,然后遍历x,从文本中grep,然后awk截取第二列并相加,这个思路需要多次awk,
bash shell脚本编程入门篇(二) read命令的使用 作用: 使用read来把输入值分配给一个或多个shell变量: -p指定要显示的提示 -t TIMEOUT read从标准输入中读取值,给每个单词分配一个变量,所有剩余单词都被分配给最后一个变量 EX.read -p "Enter a filename:" FILE 条件选择之if的使用 if的作用:选择执行(注意:if语句可嵌套) 单分支 if 判断条件;then 条件为真的分支代码 fi EX.单分支案例 双分支 if
1. 用shell脚本生成带绝对路径的train.txt 例如我要生成如下形式的带标签的文件,如图:(如有两个标签:0 和 1) shell脚本如下: 这样标签0写入了train.txt 1 # /usr/bin/env sh 2 DATA=/home/ttwang/Desktop/Texture/0 3 DATASAVE=/home/ttwang/Desktop 4 5 echo "Create train.txt..." 6 7 # /usr/bin/env sh 8 find $
最近工作中,产品组的同事给出的数据里面都是小写字母 ,但是引擎组的同事要求他们拿到的从数据里面解析出的结构体里面存储的要都是大写结构,这让我们数据预处理组很尴尬啊,,所以在写了个这么样的脚本,在解析数据之前,先使用shell脚本处理一遍数据...
背景: 每日构建的东西,按日期放到不同的文件夹里.如今天的构建放到2015-06-01里,明天的就放到2015-06-02里,依次类推.时间久了,需要一个脚本删除N天前的文件夹.(本例中N=7,即删除一周前的构建). 下面直接上代码,linux版: #! /bin/bash historyDir=~/test/ today=$(date +%Y-%m-%d) echo "---------today is $today-----------" tt=`date -d last-week
脚本编写背景 无论是生产环境.测试环境还是开发环境,经常需要使用rm命令删除&批量一些"重要"目录下的文件.按照Linux的哲学"小即是美"(一个程序只做一件事)+"用户清楚自己做什么"(用户知道自己想要什么,也明白自己在做什么,并且会为自己的行为负责),那么用户在执行rm时,一定要知道自己的操作可能引起的后果,因此"三思而后行"真的很重要.但这对于一部分人来讲,真的可能是灾难性的,手抖.手贱和任何错误的操作(在路径分
一.awk工作原理 二.awk的用法 awk [option] ... 'program' FILE ... 1.program语句必须使用单引号! 2.多条program语句使用用大括号包含起来,可以并列,可以嵌套三.awk的常用参数 -F #指定分隔符 示例:awk -F: '{print $1}' /etc/passwd #输出/etc/passwd/文件中以:为分隔符的第一列 -v #因为awk是一种语言编译器,能自己定义变量,同时也有自己的内置变量(与s
思路: 进入/usr/local/apache2/htdocs/ipa/ 循环读取 /root/shell/wget/down.txt 每次一行,每一行直接就是一条命令,直接 $line 就可以执行,如果执行成功把脚本按日期保存下来,错误也保存到错误日志中按日期,都执行完成后,把当前时间插入到txt中,既可以查看程序执行完成的时间,又可以避免重复执行,最后把执行成功的行数追加到 日志文件中. 脚本如下 ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 1