使用python获取webservice数据并输出到文件

上头要求设置TCP备案检查,给了个WEBSERVICE接口。查了2天,才确认还是python比较好用,我这水平也就写个脚本把数据导出,过滤检索还是用的shell。写此文备忘。WEBSERVICE接口脚本如下:

#! /usr/bin/python

#coding:utf-8

import codecs

import suds

def main(file_name, out_file):

url = ‘http://121.14.4.210:8088/icpautobj/ws/getIcp?wsdl‘

client = suds.client.Client(url)

fp=open(file_name)

ofp=codecs.open(out_file, ‘w‘,"utf-8")

while 1:

line=fp.readline()

if not line or line == ‘\n‘:

break

domain=line.strip(‘\n‘)

ret =  client.service.queryBatchIcpInfo(0,domain)

#print ret

ofp.write(ret+‘\n‘)

fp.close()

ofp.close()

fn=‘domain.txt‘

out_file=‘res.log‘

main(fn, out_file)

使用python获取webservice数据并输出到文件,布布扣,bubuko.com

时间: 2024-08-01 06:33:11

使用python获取webservice数据并输出到文件的相关文章

Python 获取接口数据,解析JSON,写入文件

Python 获取接口数据,解析JSON,写入文件 用于练手的例子,从国家气象局接口上获取JSON数据,将它写入文件中,并解析JSON: 总的来说,在代码量上,python代码量要比java少很多.而且python看起来更直观一些: 以下是代码: import types import urllib2 import json duan ="--------------------------" #在控制台断行区别的 #利用urllib2获取网络数据 def registerUrl():

Python学习笔记(十五)用Python获取本地数据

f1 = open(r'E:\Python\Data\data1.txt') #读取data1.txt文件,使用系统默认缓冲区大小, 为了读取快点,使用缓存吧! f = open(r'E:\Python\Data\data2.txt', 'w') f.write('Hello World !') f.close() f = open(r'E:\Python\Data\data2.txt', 'r') p1 = f.read(5) # 先读5个字节 p2 = f.read() # 余下的都读出来f

利用python获取股票数据

一.利用pandas API接口 Pandas库提供了专门从财经网站获取金融数据的API接口,可作为量化交易股票数据获取的另一种途径,该接口在urllib3库基础上实现了以客户端身份访问网站的股票数据. 通过查看Pandas的手册可以发现,第一个参数为股票代码,苹果公司的代码为"AAPL",国内股市采用的输入方式“股票代码”+“对应股市”,上证股票在股票代码后面加上“.SS”,深圳股票在股票代码后面加上“.SZ”.DataReader可从多个金融网站获取到股票数据,如“Yahoo! F

Python提取netCDF数据并转换为csv文件

netCDF全称是network Common Data Format(网络通用数据格式),是由美国大学大气研究协会(University Corporation for Atmospheric Research,UCAR)的Unidata项目科学家针对科学数据的特点开发的,是一种面向数组型并适于网络共享的数据的描述和编码标准.目前,NetCDF广泛应用于大气科学.水文.海洋学.环境模拟.地球物理等诸多领域. 我们使用python对数据进行分析处理,首先我们需要下载安装netCDF4包,可使用p

用Python将处理数据得到的csv文件分类(按顺序)保存

用Python中的os和numpy库对文件夹及处理数据后得到的文件进行分类保存: import numpy as np import os for m in range(699,0,-35): cur_dir='F:/2019_09_01/' folder_name='partdata_0_' if not os.path.exists(cur_dir+folder_name+str(m)): os.mkdir(os.path.join(cur_dir,folder_name+str(m)))

Python 获取zabbix数据图并发邮件

#! /usr/bin/env python # coding=utf-8 # Andy_f import time, os,datetime import urllib import urllib2 import cookielib import MySQLdb import smtplib from email.mime.multipart import MIMEMultipart  # 导入MIMEMultipart类 from email.mime.text import MIMETex

python 获取excel数据 自动登陆

import xlrdimport timeimport unittestfrom selenium import webdriver class u8819(unittest.TestCase): global loginurl global driverpath loginurl = 'http://www.effevo.com' driverpath = 'D:\\chromedriver.exe' userpath = 'D:\\data.xlsx' #获取data.xlsx中的用户数据

python获取excel数据

#!/usr/bin/python # --*-- coding: utf-8 --*-- import xlrd excel_file = "/data/script/cmdb_excel_2018_08_04_16_03.xlsx" csv_file = "/data/script/jms.xlsx" #################get old jms ip_list #################### workbook = xlrd.open_wo

python获取知乎日报另存为txt文件

前言 拿来练手的,比较简单(且有bug),欢迎交流~ 功能介绍 抓取当日的知乎日报的内容,并将每篇博文另存为一个txt文件,集中放在一个文件夹下,文件夹名字为当日时间. 使用的库 re,BeautifulSoup,sys,urllib2 注意事项 1.运行环境是Linux,python2.7.x,想在win上使用直接改一下里边的命令就可以了 2.bug是在处理 “如何正确吐槽”的时候只能获取第一个(懒癌发作了) 3.直接获取(如下)内容是不可以的,知乎做了反抓取的处理 urllib2.urlop