如何从apache/nginx日志分析ip的来源并写入到数据库

如题,分析首先最简单的取出ip

cd /usr/local/nginx/logs
awk ‘{print $1}‘  access.log | sort  |  uniq -c  | sort -rn | head -n 50 | awk ‘{print $2}‘ > /root/list
#在nginx/apache 下执行上述代码。把ip写到list列表

然后思路就是 把每个ip的来源地分析出来,我用的淘宝的ip数据库,还是不错的

#!/bin/bash

ipInfo() {
  for i in `cat list`
  do
    TransCoding="/usr/bin/python TransCoding.py"
    JsonDate="curl -s http://ip.taobao.com/service/getIpInfo.php?ip=$i"
    country=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==2{print $3}‘`
    area=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==4{print $2}‘`
    region=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==6{print $2}‘`
    city=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==8{print $2}‘`
    county=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==10{print $2}‘`
    isp=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==12{print $2}‘`
    printf "%-18s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\n" $i $country $isp $area $region $city $county
  done
}

printf "%-18s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\n" IP地址 国家 运营商 区域 省份 城市 县/区
echo -e "\e[1;33m======================================================================\e[0m"

ipInfo

转码代码

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import re
import sys

def main():
    for line in sys.stdin:
        sys.stdout.write(re.sub(r‘\\u\w{4}‘,
            lambda e: unichr(int(e.group(0)[2:], 16)).encode(‘utf-8‘),
            line))

if __name__ == ‘__main__‘:
    main()

说明一下,shell用可以从淘宝的api把每个ip地址来源获取出来,但是是json的格式,需要用python把他转化为utf8的格式。

此时解决ip来源查询的,下一步就是写到数据库,很简单,把shell修改下就行了。当然了前提是去数据库手工创建字段咯,数据类型自己定义就ok。

+-----------------+---------+--------------+--------+--------------------------+-----------------+
52 rows in set (0.00 sec)

mysql> quit
Bye
You have new mail in /var/spool/mail/root
[[email protected] ~]# vim ip1.sh 
#!/bin/bash

ipInfo() {
  for i in `cat list`
  do
    TransCoding="/usr/bin/python TransCoding.py"
    JsonDate="curl -s http://ip.taobao.com/service/getIpInfo.php?ip=$i"
    country=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==2{print $3}‘`
    area=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==4{print $2}‘`
    region=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==6{print $2}‘`
    city=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==8{print $2}‘`
    county=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==10{print $2}‘`
    isp=`$JsonDate | sed ‘s/,/\n/g‘ | $TransCoding | tr -d "{}\"" | awk -F ":" ‘NR==12{print $2}‘`
    printf "%-18s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\t%-8s\n" $i $country $isp $area $region $city $county
    mysql -uroot -pxxxxxx  ip_address << EOF
    use ip_address;
    insert into ip_address values ("$i","$country","$isp","$area","$region","$city");
EOF

  done
}

ipInfo

来个mysql的查询界面:

mysql> select * from ip_address;
+-----------------+---------+--------------+--------+--------------------------+-----------------+
| ip              | country | isp          | area   | region                   | city            |
+-----------------+---------+--------------+--------+--------------------------+---------
| 101.199.112.45  | 中国    |              | 华北   | 北京市                   | 北京市          |
| 101.226.125.116 | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 101.226.33.199  | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 101.226.33.222  | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 101.226.61.142  | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 101.81.49.203   | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 106.120.160.109 | 中国    | 电信         | 华北   | 北京市                   | 北京市          |
| 111.73.45.242   | 中国    | 电信         | 华东   | 江西省                   | 上饶市          |
| 111.73.46.22    | 中国    | 电信         | 华东   | 江西省                   | 上饶市          |
| 112.65.191.116  | 中国    | 联通         | 华东   | 上海市                   | 上海市          |
| 115.231.218.126 | 中国    | 电信         | 华东   | 浙江省                   | 杭州市          |
| 116.231.78.64   | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 117.131.99.203  | 中国    | 移动         | 华东   | 上海市                   | 上海市          |
| 117.21.226.160  | 中国    | 电信         | 华东   | 江西省                   | 赣州市          |
| 119.161.140.147 | 中国    |              | 华北   | 北京市                   | 北京市          |
| 12.197.154.136  | 美国    |              |        |                          |                 |
| 120.132.72.219  | 中国    | 天地祥云     | 华北   | 北京市                   | 北京市          |
| 120.204.200.42  | 中国    | 移动         | 华东   | 上海市                   | 上海市          |
| 121.32.128.186  | 中国    | 电信         | 华南   | 广东省                   | 广州市          |
| 121.40.83.80    | 中国    | 阿里云       | 华东   | 浙江省                   | 杭州市          |
| 125.211.216.98  | 中国    | 联通         | 东北   | 黑龙江省                 | 哈尔滨市        |
| 140.207.30.50   | 中国    | 联通         | 华东   | 上海市                   | 上海市          |
| 180.153.163.205 | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 180.153.213.141 | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 180.154.173.64  | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 180.173.226.55  | 中国    | 电信         | 华东   | 上海市                   | 上海市          |
| 183.233.169.183 | 中国    | 移动         | 华南   | 广东省                   | 韶关市          |
| 183.61.171.132  | 中国    | 电信         | 华南   | 广东省                   | 东莞市          |
| 192.3.6.2       | 美国    |              |        |                          |                 |
| 198.13.108.236  | 美国    |              |        |                          |                 |
| 203.156.217.33  | 中国    |              | 华东   | 上海市                   | 上海市          |
| 203.171.238.69  | 中国    |              | 华中   | 河南省                   | 郑州市          |
| 216.99.156.172  | 美国    |              |        |                          |                 |
| 218.84.251.209  | 中国    | 电信         | 西北   | 新疆维吾尔自治区         | 乌鲁木齐市      |
| 220.181.132.193 | 中国    | 电信         | 华北   | 北京市                   | 北京市          |
| 220.181.132.215 | 中国    | 电信         | 华北   | 北京市                   | 北京市          |
| 221.2.205.150   | 中国    | 联通         | 华东   | 山东省                   | 聊城市          |
| 221.203.98.43   | 中国    | 联通         | 东北   | 辽宁省                   | 本溪市          |
| 222.174.5.25    | 中国    | 电信         | 华东   | 山东省                   | 泰安市          |
| 222.186.30.115  | 中国    | 电信         | 华东   | 江苏省                   | 镇江市          |
| 222.186.30.82   | 中国    | 电信         | 华东   | 江苏省                   | 镇江市          |
| 222.186.31.130  | 中国    | 电信         | 华东   | 江苏省                   | 镇江市          |
| 222.186.31.149  | 中国    | 电信         | 华东   | 江苏省                   | 镇江市          |
| 222.215.230.233 | 中国    | 电信         | 西南   | 四川省                   | 眉山市          |
| 223.104.3.186   | 中国    | 移动         | 华北   | 北京市                   | 北京市          |
| 42.62.56.151    | 中国    | 森华易腾     | 华北   | 北京市                   | 北京市          |
| 50.7.37.98      | 美国    |              |        |                          |                 |
| 58.217.255.4    | 中国    | 电信         | 华东   | 江苏省                   | 南京市          |
| 59.108.122.184  | 中国    | 方正网络     | 华北   | 北京市                   | 北京市          |
| 61.148.243.106  | 中国    | 联通         | 华北   | 北京市                   | 北京市          |
| 61.164.211.98   | 中国    | 电信         | 华东   | 浙江省                   | 嘉兴市
时间: 2024-10-19 10:15:25

如何从apache/nginx日志分析ip的来源并写入到数据库的相关文章

python分析nginx日志的ip(来源)

Python 脚本如下: #!/usr/bin/env python #_*_coding:utf-8 _*_ __author__ = 'gaogd' import MySQLdb as mysql import datetime import sys, os, urllib2, json db = mysql.connect(user="root",passwd="[email protected]",db="intest",host=&qu

利用Python实现读取Nginx日志,并将需要信息写入到数据库。

#!/usr/bin/env python # coding: utf-8 # Auther:liangkai # Date:2018/6/26 11:26 # License: (C) Copyright 2013-2017, Node Supply Chain Manager Corporation Limited. # Describe: import pymysql import re import datetime # DB variables dbhost = "192.168.18

python分析nginx日志的ip,url,status

Python 脚本如下: #!/usr/bin/env python #_*_coding:utf-8 _*_ __author__ = 'lvnian' #!/usr/bin env python # coding: utf-8 import MySQLdb as mysql import sys, os db = mysql.connect(user="root",passwd="[email protected]",db="intest",

nginx日志分析利器GoAccess(转)

面试的时候一定会被面到的问题是:给出web服务器的访问日志,请写一个脚本来统计访问前10的IP有哪些?访问前10的请求有哪些?当你领略过goaccess之后,你就明白,这些问题,除了考验你的脚本背诵记忆能力以外,唯一的作用只有装A或者装C了. 对于nginx日志分析,有很多工具,衡量好坏的标准大概就是三快:安装快,解析快,上手快.满足这三点的goaccess确实是居家必备良药. 话说这个标题其实有点委屈GoAccess了,它是一个日志分析工具,并不只是为nginx使用的.你也可以用它来分析apa

nginx日志分析利器GoAccess

面试的时候一定会被面到的问题是:给出web服务器的访问日志,请写一个脚本来统计访问前10的IP有哪些?访问前10的请求有哪些?当你领略过goaccess之后,你就明白,这些问题,除了考验你的脚本背诵记忆能力以外,唯一的作用只有装A或者装C了. 对于nginx日志分析,有很多工具,衡量好坏的标准大概就是三快:安装快,解析快,上手快.满足这三点的goaccess确实是居家必备良药. 话说这个标题其实有点委屈GoAccess了,它是一个日志分析工具,并不只是为nginx使用的.你也可以用它来分析apa

ELKR分布式搭建nginx日志分析系统

ELKR分布式搭建nginx日志分析系统 一.名词介绍 1.什么是elk ELK 其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash 和 Kibana.这三款软件都是开源软件,通常是配合使用. 2.Elasticsearch 2.1.Elasticsearch介绍 Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析.它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引

ELK系列二:kibana操作及nginx日志分析图表创建

本文主要介绍kibana4的基本操作,nginx日志分析饼形图.柱形图.客户端地理位置分布图等相关图表创建. 一.kibana基本操作 1.面板介绍 Settings:创建索引 Discover:查询数据,选择左上角的下拉按钮,可以选择相应的索引查找数据 Visualize:统计图表 Dashboard:显示面板,添加相应的图表在面板中 2.创建索引 索引创建时,按照不同的类型建,Time-field要选择@timestamp不选的话在discover面板中不出现时间过滤控件 二.饼形图创建(分

【分享】Nginx日志分析(上)

在很多时候,我们会非常关注网站的访问量,比如网站的日PV是多少.网站某个功能上线之后点击量是多少,像这些东西都是需要从web容器中的访问日志统计出来的,下面我们看一下如何在nginx中统计网站的访问信息 1.设置Nginx访问日志记录格式 在默认情况下,nginx只是记录相关get信息,像post页面是不记录的,所以下面需要修改nginx.conf,让其访问日志记录post等请求信息,在nginx.conf中server段中加入如下信息 log_format  access  '$remote_

ELK系列一:ELK安装配置及nginx日志分析

本文分三个部分介绍了elk.elk安装配置及基于filebeat分析nginx日志的配置. 第一部分:elk介绍 一.什么是elk ELK 其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash 和 Kibana.这三款软件都是开源软件,通常是配合使用. 二.Elasticsearch 1.Elasticsearch介绍 Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析.它是一个建立在全