12 友盟项目--配置nginx的日志滚动

配置nginx的日志滚动
--------------------------
 使用linux的crod调度器,周期性生成新文件。
 [编写滚动脚本 /usr/local/bin/umeng_roll_log.sh]     chmod  777     修改可执行权限

 #!/bin/bash
 dateStr=`date ‘+%Y-%m-%d-%H-%M‘`
 mv /usr/local/openresty/nginx/logs/access.log /usr/local/openresty/nginx/logs/access.log.${dateStr}
 touch access.log
 openresty -s reload

配置linux的crond服务,自动实现脚本调用,实现日志滚动
--------------------------------
 1.编写调度文件
  [/etc/crontab]   一分钟滚动一次

  SHELL=/bin/bash
  PATH=/sbin:/bin:/usr/sbin:/usr/bin
  MAILTO=root
  # For details see man 4 crontabs
  # Example of job definition:
  # .---------------- minute (0 - 59),分钟
  # |  .------------- hour (0 - 23)
  # |  |  .---------- day of month (1 - 31)
  # |  |  |  .------- month (1 - 12) OR jan,feb,mar,apr ...
  # |  |  |  |  .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat
  # |  |  |  |  |
  # *  *  *  *  * user-name  command to be executed
  * * * * * root source /etc/profile;/usr/local/bin/umeng_roll_log.sh

2.启动调度服务
  $>su root
  $>service crond status  //查看服务状态
  $>service crond start  //启动服务器

3.设置crond服务开机自启
  $>chkconfig crond on  //启用开机自启

原文地址:https://www.cnblogs.com/star521/p/9905407.html

时间: 2024-11-09 16:54:52

12 友盟项目--配置nginx的日志滚动的相关文章

02.友盟项目--原始日志数据生成

友盟架构图1 友盟架构图2 日志生成类 package com.star.umeng.phone.domain; /** * App日志的公共属性 */ public class AppBaseLog { private Long createdAtMs; //日志创建时间 private String appId; //应用唯一标识 private String tenantId; //租户唯一标识,企业用户 private String deviceId; //设备唯一标识 private

2018-3-14 12周3次课 Nginx访问日志、日志分割、日志不记录静态文件和过期时间

12.10 Nginx访问日志 ·日志格式: [[email protected] ~]# vim /usr/local/nginx/conf/nginx.conf 搜索log_format (虽然红框中有三行,但实际上时一行配置,以分号为结尾) combined_realip 定义日志格式名字,此处定义成什么,那么后面引用时就要写成什么 公网ip(出口ip) ·除了在主配置文件nginx.conf里定义日志格式外,还需要在虚拟主机配置文件中增加 access_log /tmp/1.log co

01.友盟项目--nginx服务器配置

Nginx实现反向代理 openresty-nginx增强版(现在使用的) localhost  反向代理到 s102--s104 http://openresty.org/cn/ 1.windows下 安装openresty,并修改nginx.conf配置文件 nginx.conf配置文件 #使用指定用户 #user root; #使用的处理器进程数 worker_processes 4; #错误日志文件 #error_log logs/error.log; #日志文件与日志级别 #error

15 友盟项目--资源文件工具类(ResourceUtil)、sql执行工具类(ExecSQLUtil)

资源文件工具类把sql脚本转换为String字符串--->交给sql工具类ExecSQLUtil执行sql 1.资源文件工具类(ResourceUtil) 把sql脚本转换为String字符串 /** * 资源文件工具类 */ public class ResourceUtil { /** * 以String方式读取整个资源串 */ public static String readResourceAsString(String resource ,String charset) throws

22 友盟项目--sparkstreaming对接kafka、集成redis--从redis中查询月留存率

 实时存储到redis,更新用户使用时间的最大.最小值-->来求留存率  避免全表扫描问题 1.spark 对接kafka 消费者   解析json 2.concat(appid,'#',appversion,'#',brand,'#',appplatform,'#',devicestyle,'#',ostype,'#',deviceid) ---> 作为key  各个维度 3.选出用户使用app的最小时间戳min , 最大时间戳max  -->作为value 4.存储到redis 依赖

如何通过友盟分析发布后App崩溃日志-b

要分析崩溃日志,首先需要保留发布时的编译出来的.xcarchive文件.这个文件包含了.DSYM文件. 我一般的做法是,发布成功后,把这个文件.xcarchive直接提交到代码版本库对应的版本分支里,这样就不会搞丢了. 这个文件在哪呢?打开XCode->菜单Window->Organizer,在编译成功的文件上右键,就能打开了. 两种比较麻烦的方法. 第一种方法: 使用dwarfdump命令 dwarfdump --uuid xx.app.dSYM     用来得到app的UUID.dwarf

分析友盟错误日志

要分析崩溃日志,首先需要保留发布时的编译出来的.xcarchive文件.这个文件包含了.DSYM文件. 我一般的做法是,发布成功后,把这个文件.xcarchive直接提交到代码版本库对应的版本分支里,这样就不会搞丢了. 这个文件在哪呢?打开XCode->菜单Window->Organizer,在编译成功的文件上右键,就能打开了. 两种比较麻烦的方法. 第一种方法: 使用dwarfdump命令 dwarfdump --uuid xx.app.dSYM     用来得到app的UUID.dwarf

iOS 友盟统计的bug分析

前提:保留打包发布时的 myapp.xcarchive文件(注:在xcode-window-Organizer-Archives 中可以找到,通过命令打包需要自己当时备份下这个文件) 1.从myapp.xcarchive中得到myapp.app.dSYM 和myapp 两个文件并放到同一个文件夹中 2.找到一条该版本app 在友盟bug统计中崩溃日志的,在其中可以找到崩溃时的地址信息如:0x1001ed424 友盟统计的崩溃logApplication received signal SIGSE

logstash 过虑nginx访问日志

标题是不是可以翻译成这样:logstash Filters nginx access log 好了,进入正题,日志管理服务器我用ElasticSearch+LogStash+Kibana+Redis 先说下我的架构: 远程NGINX采集日志数据到REDIS+logstash+elasticsearch+kibana服务器 至于怎么部署,因本人之前用baidu博客写在那上面了,以后有时间把百度的搬过来 好了,这里就先不说部署了,我们直接进入配置正题 在nginx服务器,我们一.先配置nginx的日