Python,使用pandas保存数据为csv格式的文件

使用pandas对数据进行保存时,可以有两种形式进行保存

  一、对于数据量不是很大的文件,可以放到列表中,进行一次性存储。

  二、对于大量的数据,可以考虑一边生成,一边存储,可以避免开辟大量内存空间,去往列表中存储数据。

本人才疏学浅,只懂一些表面的东西,如有错误,望请指正!

下面通过代码进行说明

 1 import pandas as pd
 2
 3
 4 class SaveCsv:
 5
 6     def __init__(self):
 7         self.clist = [[1,2,3], [4,5,6], [7,8,9]]
 8
 9     def savefile(self, my_list):
10         """
11         把文件存成csv格式的文件,header 写出列名,index写入行名称
12         :param my_list: 要存储的一条列表数据
13         :return:
14         """
15         df = pd.DataFrame(data=[my_list])
16         df.to_csv("./Test.csv", encoding="utf-8-sig", mode="a", header=False, index=False)
17
18     def saveAll(self):
19         """
20         一次性存储完
21         :return:
22         """
23         pf = pd.DataFrame(data=self.clist)
24         pf.to_csv("./Test_1.csv", encoding="utf-8-sig", header=False, index=False)
25
26
27     def main(self):
28         nameList = ["beijing", "shanghai", "guangzhou", "shenzhen", "xiongan", "zhengzhou"]
29         # start表示循环从1开始计数
30         for num, data in enumerate(nameList, start=1):
31             if num % 2 == 0:
32                 self.savefile(["成功", data, num])
33             else:
34                 self.savefile(["失败", data, num])
35         return 0
36
37 if __name__ == ‘__main__‘:
38     sc = SaveCsv()
39     sc.main()
40     sc.saveAll()

下面对代码进行简单的说明:

savefile:可以通过一边循环一边保存到同一个文件上,对于部分参数的含义可以自行百度

saveAll:是通过一次性存储,将所有数据通过列表一次存储结束

原文地址:https://www.cnblogs.com/ppwang06/p/11517328.html

时间: 2024-10-29 19:11:43

Python,使用pandas保存数据为csv格式的文件的相关文章

Python数据写入csv格式文件

(只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块. 废话不多说,直接写代码!该重要的内容都已经注释了,剩下不懂的可以自己查询一下,或者QQ群内问我.QQ群在以往的博客中! 1 #coding:utf-8 2 from bs4 import BeautifulSoup 3 import bs4 4 import os 5 import time 6 import csv 7 import codecs

Oracle通过PL/SQL Developer导出数据为CSV格式,VARCHAR2类型的字段如果存入的是数值(例如3307830000004059)太长,最后一位会被置为0

问题描述: Oracle通过PL/SQL Developer导出数据为CSV格式,VARCHAR2类型的字段如果存入的是数值(例如3307830000004059)太长,CSV文件该列会用科学计数法表示,即使选择该列,点击数据--.>分列,固定宽度,列数据格式选择文本,最后一位仍然会被置为0. 解决方法: Oracle通过PL/SQL Developer导出数据为CSV格式,新建一个Excel文件,点击数据-->自文本,选择之前导出的CSV文件,文件类型分隔符号,选择逗号,[选中所有列],然后

将页面中表格数据导出excel格式的文件(vue)

近期由于项目需要,需要将页面中的表格数据导出excel格式的文件,折腾了许久,在网上各种百度,虽然资料不少,但是大都不全,踩了许多坑,总算是皇天不负有心人,最后圆满解决了. 1.安装相关依赖(npm安装可能会出现某些错误,可以使用cnpm): npm install file-saver --save // 保存文件用 npm install xlsx --save // 转二进制用 npm install script-loader --save-dev // xlsx核心文件 2.下载两个核

Nodejs fastCSV 实现数据的csv格式导出

Nodejs实现CSV格式的数据导出 使用的第三方包: fast-csv: npm install fast-csv async: npm install async mysql: npm install mysql 在这个实现中使用mysql数据源将mysql中的数据导入到对应的csv文件中. /** * 实现dump数据到csv文件数据中 * 导出csv数据模版 **/ var config = require('./info.json'); var fs = require("fs&quo

tensorflow读取数据之CSV格式

tensorflow要想用起来,首先自己得搞定数据输入.官方文档中介绍了几种,1.一次性从内存中读取数据到矩阵中,直接输入:2.从文件中边读边输入,而且已经给设计好了多线程读写模型:3.把网络或者内存中的数据转化为tensorflow的专用格式tfRecord,存文件后再读取. 其中,从文件中边读边输入,官方文档举例是用的CSV格式文件.我在网上找了一份代码,修改了一下,因为他的比较简略,我就补充一下遇到的问题 先贴代码 #coding=utf-8import tensorflow as tf

C#对.CSV格式的文件--逗号分隔值 的读写及上传ftp服务器操作方法总结

前言 公司最近开发需要将数据保存到.csv文件(逗号分隔值 )中然后上传到ftp服务器上,供我们系统还有客户系统调用,之前完全没有接触过这个,所以先来看看百度的解释:逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号),其文件以纯文本形式存储表格数据(数字和文本).纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据.CSV文件由任意数目的记录组成,记录间以某种换行符分隔:每条记录由字段组成,字段间的分隔符是其它字

SQLLoader2(导入EXCEL或csv格式的文件)

一.EXCEL文件导入:1.首先将EXCEL文件另存为CSV格式文件--->用UltraEdit工具打开时可看到字段之间以逗号分隔. ,EMPNO,ENAME,JOB,MGR,HIREDATE,SAL,COMM,DEPTNO 1,7369,SMITH,CLERK,7902,1980/12/17,800,,20 2,7499,ALLEN,SALESMAN,7698,1981/2/20,1600,300,30 3,7521,WARD,SALESMAN,7698,1981/2/22,1250,500,

python用pandas工具包来处理.csv文件,包括读写和切片

csv是Comma-Separated Values的缩写,是用文本文件形式储存的表格数据.我们用python处理.csv文件时,发现用pandas工具包比csv工具包要方便很多,下面介绍一下一些基本的操作,如读写(read, write)和切片(slice). 写(write)操作: import pandas as pd # 每个列表表示csv文件里面的一列a = [1, 2, 3]b = [4, 5, 6]c = [7, 8, 9] # 字典中的key值就是csv中的列名csv_file

将CSV格式的文件导入到数据中

--创建表 create table t1( id number primary key, name varchar2(10), score number, subject varchar(10) ) --创建控制文件 t1.ctl,以文本的形式保存为ctl 格式的,放在所在目录下 load data infile 'D:\test\student.csv' insert into table t1 fields terminated by ','(id,name,score,subject)