txt文件匹配脚本

# -*- coding:utf-8 -*-

import time
start = time.clock()
data=open("Data.txt","r")
PipeiData=open("PipeiData.txt","r")

#目标文件,所有匹配数据产出在该文件中
result=open("result.txt","w")

dict={}
for k in data:
    k=k.strip()
    k=k.split(‘\t‘)
    k1=k[0]#id
    k2=k[1]#注册时间
    dict[k1]=k2

‘‘‘
for k,v in dict.iteritems():
    print k,v
‘‘‘

for y in PipeiData:
    y=y.strip()
    y=y.split(‘\t‘)
    y1=y[0]#充值ID
    y2=y[1]#充值金额
    y3=y[2]#充值时间
    #print y1,y2,y3
    if y1 in dict:
        yy1=y1
        yy2=dict[y1]#注册时间
        ss=yy2+‘\t‘+yy1+‘\t‘+y2+‘\t‘+y3
        result.write(ss+‘\n‘)

result.close()
print ‘数据匹配完毕‘

end = time.clock()
print "运行时长: %f s" % (end - start)
时间: 2024-10-13 15:02:47

txt文件匹配脚本的相关文章

ABP增加记录EFCore 生成数据库脚本日志到新的txt文件

由于EFCore并没直接生成脚本到txt文件,故而自己画了点时间把实现记录下来,方便给大家参考. 0.安装Microsoft.Extensions.Logging.Debug,我这里是2.1.1版本. 1.新建一个EFCoreDatabaseCmdLog在abp的Core层下, using Abp.Dependency; using Castle.Core.Logging; namespace SensorBroker.Log { public static class EFCoreDataba

Python操作小结(连接mysql、解析txt文件)

有段时间没有使用python了,对它的语法有点生疏,花了几个小时熟悉,期间发现很多小细节不清楚.为了下次能快速上手,避免重复犯错,我将python使用过程中的一些问题在这篇博文中记录小结一下,主要内容涉及到python操作mysql数据库,和解析txt文本.注:我用的是python2.7版本. 一.导入模块 python的脚本文件里面,可以导入其他脚本文件,并引用其中的方法和参数,使用关键字import.如下: import os,glob,sys 二.基础语法 1.普通变量定义 python

Selenium+Python参数化:读取TXT文件

概述 从Selenium模块化一文中,可以看出参数化的必要性,本文来介绍下读取外部txt文件的方法. 如何打开文件 打开文件有以下两个函数可以应用: 1.open(file_name,access_mode) file_name: 文件路径及名称: access_mode :访问方式,具体参数如下,,未提供参数,则默认为r: r:表示读取: w:表示写入: a:表示添加: +: 表示读写: b:表示2进制访问; 2.file函数 file()内建函数它的功能等于open(),如下根据文档说明可知

Javascript写入txt和读取txt文件的方法

文章主要介绍了Javascript写入txt和读取txt文件的方法,需要的朋友可以参考下1. 写入 FileSystemObject可以将文件翻译成文件流. 第一步: 例: 复制代码 代码如下: Var fso=new ActiveXObject(Scripting.FileSystemObject); 创建一个可以将文件翻译成文件流的对象. 第二步:用于创建一个textStream 对象 括号里边有三个属性 1. 文件的绝对路径 2. 文件的常数 只读=1,只写=2 ,追加=8 等权限.(Fo

web站点下robots.txt文件的书写与注意事项

Robots协议(爬虫协议)是国际互联网界通行的道德规范,一般是在一个web站点的根目录下写的robots.txt文件,用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取,可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽:可以屏蔽站点的一些死链接.方便搜索引擎抓取网站内容:设置网站地图连接,方便引导蜘蛛爬取页面. 通常的写法格式如下: User-agent: *  #这里的*通配符代表搜索引擎种类,*就是匹配所有的蜘蛛 Allow: / Disallow: #以上2个都表

利用python处理txt文件

前段时间做公司一个自动翻译项目需要处理大量的文案字段,手工去做简直不大可能(懒),因此借用python脚本自动化处理掉了,在此记录一下. import linecache def outputfile(i,j,n): # zh = file_zh.read().decode('utf-8').encode('gbk', 'ignore') file_new = open ('1.txt', 'r+') for l in range(i,j+1): # line = linecache.getli

java读取txt文件

一.读取txt文件. 场景 : txt文件内容 : 123 456 ... 读取每行内容, 并将每行内容用 , 拼接成  123,456 public class ReadTxt { public static void main(String[] args) { String filePath = "/Users/xupengwei/Downloads/test.txt"; readTxtFile(filePath ); } public static void readTxtFil

根据txt文件中指定的文件名进行文件分类

根据txt文件中指定的文件名进行文件分类: // 根据txt文件中指定的文件名进行文件分类 #include <stdio.h> #include <stdlib.h> #include <malloc.h> #include <windows.h> #include <io.h> #include <direct.h> #include <string.h> void Remove_End_Char(char a[])

powershell对txt文件的服务器进行ping操作

powershell对txt文件的服务器进行ping操作,txt文件有几百台服务器要进行Ping操作.每行一个 #//************************************************************* #//编辑人:#//编辑单位:#//编辑作用:ping #//编制时间:2016.01.05 #//************************************************************* $stopWatch = [sys