pymongo 将vmstat数据插入到mongodb

#!/usr/bin/env python
#-*-encoding:utf-8 -*-

import subprocess

def gen_vmlog(cmd):
    result = subprocess.Popen(cmd,shell=True,stdout=subprocess.PIPE)
    return result.stdout.read()

def conn_mongo(host,port):
    from pymongo import MongoClient
    client = MongoClient(host,port)
    return client

if __name__ == ‘__main__‘:
    import os
    content = gen_vmlog("""vmstat -n 2 3 | awk ‘{print strftime("[%Y-%m-%d_%H:%M:%S]"),$0}‘""") #运行shell获取vmstat结果
    result = content.replace("-","").split(os.linesep) #删除- ,换行切割
    vm_len=len(result)
    mongoClient = conn_mongo(‘localhost‘,27017) #连接mongodb
    db = mongoClient[‘test‘]  #连接test库
    ret = result[1].split()
    ret[0] = "dateTime"
    for i in range(2,vm_len):
        if result[i] == "" or result[i] == None:
            continue
        res = result[i].split()
        res[0] = res[0].replace("_"," ")[1:-1]
        re_dict = dict(zip(ret,res))
        db.vmstat.insert(re_dict)  #collection(表)-vmstat 插入数据

  

[[email protected] python]# vmstat -n 2 3 | awk ‘{print strftime("[%Y-%m-%d_%H:%M:%S]"),$0}‘
[2014-10-27_23:05:12] procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu-----
[2014-10-27_23:05:12]  r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
[2014-10-27_23:05:12]  3  0  70260  15060  17556  41396    1    5    58    23  145  265  0  1 95  4  0
[2014-10-27_23:05:14]  0  0  70260  15408  17556  41404    0    0     0     0  165  292  0  1 99  0  0
[2014-10-27_23:05:16]  1  0  70260  15424  17556  41404    0    0     0     0  135  271  0  0 100  0  0
> db.vmstat.remove({})
WriteResult({ "nRemoved" : 6 })
> db.vmstat.find()
> db.vmstat.find()
{ "_id" : ObjectId("544f2dd0a19ea620f0e58aff"), "wa" : "4", "sy" : "1", "b" : "0", "us" : "0", "bo" : "24", "cache" : "45244", "bi" : "62", "free" : "9824", "dateTime" : "20141027 22:46:52", "si" : "1", "r" : "1", "so" : "5", "swpd" : "70032", "in" : "145", "cs" : "263", "st" : "0", "id" : "95", "buff" : "15828" }
{ "_id" : ObjectId("544f2dd0a19ea620f0e58b00"), "wa" : "0", "sy" : "0", "b" : "0", "us" : "0", "bo" : "2", "cache" : "45252", "bi" : "0", "free" : "9808", "dateTime" : "20141027 22:46:54", "si" : "0", "r" : "0", "so" : "0", "swpd" : "70032", "in" : "139", "cs" : "278", "st" : "0", "id" : "100", "buff" : "15828" }
{ "_id" : ObjectId("544f2dd0a19ea620f0e58b01"), "wa" : "0", "sy" : "0", "b" : "0", "us" : "0", "bo" : "0", "cache" : "45252", "bi" : "0", "free" : "9808", "dateTime" : "20141027 22:46:56", "si" : "0", "r" : "0", "so" : "0", "swpd" : "70032", "in" : "140", "cs" : "282", "st" : "0", "id" : "100", "buff" : "15828" }
> 

实现vmstat下结果数据对应的插入

"wa" : "0", "sy" : "0", "b" : "0", "us" : "0", "bo" : "0", "cache" : "45252", "bi" : "0", "free" : "9808", "si" : "0", "r" : "0", "so" : "0", "swpd" : "70032", "in" : "140", "cs" : "282", "st" : "0", "id" : "100", "buff" : "15828"

vmstat命令结果字段参考:

r 表示运行队列(就是说多少个进程真的分配到CPU),我测试的服务器目前CPU比较空闲,没什么程序在跑,当这个值超过了CPU数目,就会出现CPU瓶颈了。这个也和top的负载有关系,一般负载超过了3就比较高,超过了5就高,超过了10就不正常了,服务器的状态很危险。top的负载类似每秒的运行队列。如果运行队列过大,表示你的CPU很繁忙,一般会造成CPU使用率很高。

b 表示阻塞的进程,这个不多说,进程阻塞,大家懂的。

swpd 虚拟内存已使用的大小,如果大于0,表示你的机器物理内存不足了,如果不是程序内存泄露的原因,那么你该升级内存了或者把耗内存的任务迁移到其他机器。

free   空闲的物理内存的大小,我的机器内存总共8G,剩余3415M。

buff   Linux/Unix系统是用来存储,目录里面有什么内容,权限等的缓存,我本机大概占用300多M

cache cache直接用来记忆我们打开的文件,给文件做缓冲,我本机大概占用300多M(这里是Linux/Unix的聪明之处,把空闲的物理内存的一部分拿来做文件和目录的缓存,是为了提高 程序执行的性能,当程序使用内存时,buffer/cached会很快地被使用。)

si  每秒从磁盘读入虚拟内存的大小,如果这个值大于0,表示物理内存不够用或者内存泄露了,要查找耗内存进程解决掉。我的机器内存充裕,一切正常。

so  每秒虚拟内存写入磁盘的大小,如果这个值大于0,同上。

bi  块设备每秒接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte,我本机上没什么IO操作,所以一直是0,但是我曾在处理拷贝大量数据(2-3T)的机器上看过可以达到140000/s,磁盘写入速度差不多140M每秒

bo 块设备每秒发送的块数量,例如我们读取文件,bo就要大于0。bi和bo一般都要接近0,不然就是IO过于频繁,需要调整。

in 每秒CPU的中断次数,包括时间中断

cs 每秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目,例如在apache和nginx这种web服务器中,我们一般做性能测试时会进行几千并发甚至几万并发的测试,选择web服务器的进程可以由进程或者线程的峰值一直下调,压测,直到cs到一个比较小的值,这个进程和线程数就是比较合适的值了。系统调用也是,每次调用系统函数,我们的代码就会进入内核空间,导致上下文切换,这个是很耗资源,也要尽量避免频繁调用系统函数。上下文切换次数过多表示你的CPU大部分浪费在上下文切换,导致CPU干正经事的时间少了,CPU没有充分利用,是不可取的。

us 用户CPU时间,我曾经在一个做加密解密很频繁的服务器上,可以看到us接近100,r运行队列达到80(机器在做压力测试,性能表现不佳)。

sy 系统CPU时间,如果太高,表示系统调用时间长,例如是IO操作频繁。

id  空闲 CPU时间,一般来说,id + us + sy = 100,一般我认为id是空闲CPU使用率,us是用户CPU使用率,sy是系统CPU使用率。

wt 等待IO CPU时间。

优化参考: 细说Linux系统优化-实践篇

------------------------------------------------------------------------------------

vmstat procs:{r:v,b:v}

memory:{swpd:v,free:v,buff:v,cache:v}

swap:{si:v,so:v}

io:{bi:v,bo:v}

system:{in:v,cs:v}

cpu:{us:v,sy:v,id:v,wa:v,st:v}

时间: 2024-10-08 10:29:07

pymongo 将vmstat数据插入到mongodb的相关文章

python 读取SQLServer数据插入到MongoDB数据库中

# -*- coding: utf-8 -*-import pyodbcimport osimport csvimport pymongofrom pymongo import ASCENDING, DESCENDINGfrom pymongo import MongoClientimport binascii '''连接mongoDB数据库'''client = MongoClient('10.20.4.79', 27017)#client = MongoClient('10.20.66.10

使用python操作elasticsearch实现数据插入分析

前言: 例行公事,有些人可能不太了解elasticsearch,下面搜了一段,大家瞅一眼. Elasticsearch是一款分布式搜索引擎,支持在大数据环境中进行实时数据分析.它基于Apache Lucene文本搜索引擎,内部功能通过ReST API暴露给外部.除了通过HTTP直接访问Elasticsearch,还可以通过支持Java.JavaScript.Python及更多语言的客户端库来访问.它也支持集成Apache Hadoop环境.Elasticsearch在有些处理海量数据的公司中已经

python实现将excel数据添加到mongodb

利用pymongo包进行数据库的连接 使用xlrd包读取excel数据,由于二者数据结构的不同,要将excel格式数据转换为json格式数据 由于编码问题会出现"TypeError: 'str' object does not support item assignment" 要利用json.loads方法对数据进行解码 #coding=utf-8 import xlrd import sys import json import pymongo from pymongo import

在scrapy中将数据保存到mongodb中

利用item pipeline可以实现将数据存入数据库的操作,可以创建一个关于数据库的item pipeline 需要在类属性中定义两个常量 DB_URL:数据库的URL地址 DB_NAME:数据库的名字 在Spider爬取的整个过程中,数据库的连接和关闭操作只需要进行一次就可以,应该在开始处理之前就要连接数据库,并在处理完所有数据之后就关闭数据库.所以需要在open_spider和close_spider中定义数据库的连接和关闭操作 在process_item中实现MongoDB的写入操作,使

Android开发时,sqlite创建表成功,insert不报错,但没有数据插入的原因

在android开发过程中,经常要通过sqlite来存储一些数据,这种应用应该是再平常不过了,但是有时难免一时疏忽,就会出现sqlite创建表成功,insert不报错,但没有数据插入. 具体问题详见如下代码: Context ctx;        SQLiteDatabase db = dbOpenHelper.getWritableDatabase(); // 开启事务        db.beginTransaction();        try{                // 数

mysql 数据插入、更新、删除

(1).数据插入insert 语法:insert into 表名 (字段名称1, 字段名称2,n,)values('值1','值2','值3') 举例说明: create table gonda( user_id int, user_name varchar(15), old int, address varchar(50)); 标准数据插入: insert into gonda(user_id,user_name,old,address) values('111','alvin','2000'

sql 将一张表中的数据插入到另一张表

将表T_wz_wz中的部分数据插入到表t_wz_kc: insert into t_wz_kc(wzid,jldwid,kcsl,yfpkcsl,cshwcbz) select wzid,jldwid,0,0,'Y' from t_wz_wz where yxbz='Y' --去重复-- and wzid not in (select wzid from t_wz_kc)

Hibernate系列(一):简单的数据插入

第一步,我们需要写一个POJO类:User.java package cn.itcast.hibernate.domain; import java.util.Date; public class User { private int id; private String name; private Date birthday; public int getId() { return id; } public void setId(int id) { this.id = id; } public

SQL 数据插入、删除 大数据

--测试表 CREATE TABLE [dbo].[Employee] ( [EmployeeNo] INT PRIMARY KEY, [EmployeeName] [nvarchar](50) NULL, [CreateUser] [nvarchar](50) NULL, [CreateDatetime] [datetime] NULL );--1.循环插入 SET STATISTICS TIME ON; DECLARE @Index INT = 1; DECLARE @Timer DATET