Python 列取两级目录并保存到list.txt中

很多时候需要列出某目录下各个子目录中文件列表并保存到list.txt中,以便于以后遍历该子目录

在图片处理中,常用该方法处理图片目录

目录结构分为3级

rootdir

subdir1

pic1

pic2

subdir2

pic1

pic2

想要结果list.txt

rootdir 目录下

list.txt 内容为

subdir1

subdir2

subdir1/2目录下

list.txt内容为

pic1

pic2

代码为:

使用方法,把.py放到要提取的当前目录下即可

import os

rootdir=".";

folderlist=os.listdir(rootdir);

#print (folderlist)

rootlist=open(rootdir+"/list.txt",‘w‘)

for subfolder in folderlist:

#if subfolder[-3:]==".py":

#continue

print (subfolder)

subpath=rootdir+"/"+subfolder

if os.path.exists(subfolder+"/")==False:

print ("NO")

continue

rootlist.write(subfolder+"\n")

#print (subpath)

subfolderlist=os.listdir(subpath)

#print (subfolderlist)

listpath=subpath+"/list.txt"

listtxt=open(listpath,‘w‘)

for line in subfolderlist:

if line[-4:]==".txt":

continue

listtxt.write(line+"\n")

listtxt.close()

rootlist.close()

时间: 2024-10-05 06:49:00

Python 列取两级目录并保存到list.txt中的相关文章

Python随机生成指定长度字符串并保存到mysql中

网上看到一个python练习题,要随机生成8位数的优惠券,并希望能保存到mysql数据库中.自己查资料写了下面的一段代码完成这个小作业 #!/usr/bin/env python # -*- coding: utf-8 -*- #author qingmiao import MySQLdb as mdb import sys import random,string def random_code(code_length,code_long):     i=1     result = []  

VB.NET 将JSON格式的字符串保存到XML文件中

1.关于本文 这几天打算写一个工具类JsonXmlHelper,用来进行用XML来保存JSON格式文件的工作.该工具类中要实现2个最主要的函数: 1)将JSON格式的内容写入到地址为address的XML中:WriteJsonToXml 2)把函数1中构造的XML文件恢复成JSON格式文档:RecoverJsonFromXml 函数1的实现将在本文中给出,函数2的实现将在以后发表的博文中给出 2.代码说明 1)添加引用:Newtonsoft.Json.dll 2)导入库 'JSON解析相关函数,

SEL如何保存到NSArray数组中

首先,SEL是不可以保存到array数组中去的. 其次,SEL有两种创建方法: SEL s1 = @selector (test1); // 将test1方法转换为NSString对象 SEL s2 = NSSelectorFromString ( @"test1" ); // 将一个字符串 方法 转换成为SEL对象 NSArray无法保存SEL,但是可以保存NSString. 所以我们利用第二种创建方法,讲SEL的方法名以字符串的方式保存到NSArray数组中即可. 举个栗子: NS

内核模块遍历进程和任务队列保存到proc文件中

实现一个模块用它遍历当前进程的父进程和任务队列,并将遍历的结果输出到一个proc 文件中(遍历可以从 current 当前进程开始,父进程遍历到初始化进程,遍历任务队列可以利用 for_each_process 宏). 下面是我的内核模块的实现部分: /************************************************************ * 使用内核模块从当前进程开始先前遍历,知道找到第一个进程为止 * * 并将遍历的结果保存到proc文件中 * ******

Sql数据保存到Excel文件中

public string ExportExcel( DataSet ds,string saveFileName) { try { if (ds == null) return "数据库为空"; bool fileSaved = false; Microsoft.Office.Interop.Excel.Application xlApp = new Microsoft.Office.Interop.Excel.Application(); if (xlApp == null) {

利用session_set_save_handler()函数将session保存到MySQL数据库中

PHP保存session默认的是采用的文件的方式来保存的,这仅仅在文件的空间开销很小的windows上是可以采用的,但是如果我们采用uinx或者是liux上的文件系统的时候,这样的文件系统的文件空间开销是很大的,然而session是要时时刻刻的使用的,大量的用户就要创建很多的session文件,这样对整个的服务器带来性能问题. 另一方面,如果服务器起采用群集的方式的话就不能保持session的一致性,所以我们就绪要采用数据库的方式来保存session,这样,不管有几台服务器同时使用,只要把他们的

[Python练习]对比两个目录里面的文件差异,并给出差异列表

#!/usr/bin/env python import os import sys def get_Curlist(path):         cur_Files = os.listdir(path)         all_Files = []         for file_Name in cur_Files:                 full_Name = os.path.join(path,file_Name)                 all_Files.appen

如何用python爬取两个span之间的内容

Python用做数据处理还是相当不错的,如果你想要做爬虫,Python是很好的选择,它有很多已经写好的类包,只要调用,即可完成很多复杂的功能,此文中所有的功能都是基于BeautifulSoup这个包. 1 Pyhton获取网页的内容(也就是源代码) page = urllib2.urlopen(url) contents = page.read() #获得了整个网页的内容也就是源代码 print(contents) url代表网址,contents代表网址所对应的源代码,urllib2是需要用到

Scrapy 爬虫实例 抓取豆瓣小组信息并保存到mongodb中

这个框架关注了很久,但是直到最近空了才仔细的看了下 这里我用的是scrapy0.24版本 先来个成品好感受这个框架带来的便捷性,等这段时间慢慢整理下思绪再把最近学到的关于此框架的知识一一更新到博客来. 先说明下这个玩具爬虫的目的 能够将种子URL页面当中的小组进行爬取 并分析出有关联的小组连接 以及小组的组员人数 和组名等信息 出来的数据大概是这样的 {    'RelativeGroups': [u'http://www.douban.com/group/10127/',