将爬取的数据保存到Excel表格

第一步、导入模块

import xlwt # 导入写入excel需要的包
第二步、定义函数,将爬取好的数据保存到excel文件中,下面以保存python的关键词为例,介绍详细流程。

def write_to_excel(filename, lst):
# 为防止写入失败,捕获异常
try:
# 1 创建一个workbook,相当于创建excel文件
work_book = xlwt.Workbook(encoding=‘utf-8‘)
# 2 创建一个sheet表单
sheet = work_book.add_sheet(‘python_word‘) # python_word 为表的名字
# 3,写表头
heads = [‘英文‘, ‘中文‘]
for i in range(len(heads)):
sheet.write(0, i, heads[i]) # write(行,列,内容) 行,列都是默认 0 开始
# 4,写入内容
j = 1 # 从第二行开始
for item in lst:
sheet.write(j, 0, item[‘en‘]) # 第二行,第一列
sheet.write(j, 1, item[‘zh‘]) # 第二行,第二列
j += 1
# 5,保存文件
work_book.save(filename)
print(‘写入成功‘)
except Exception:
print(‘写入失败‘)
第三步、传入文件名、爬取的列表格式数据两个实参,调用函数,大功告成。

原文链接:https://blog.csdn.net/shancyr45/java/article/details/103381059

原文地址:https://www.cnblogs.com/shiguanggege/p/12625907.html

时间: 2024-07-29 07:22:00

将爬取的数据保存到Excel表格的相关文章

1.scrapy爬取的数据保存到es中

先建立es的mapping,也就是建立在es中建立一个空的Index,代码如下:执行后就会在es建lagou 这个index. from datetime import datetime from elasticsearch_dsl import DocType, Date, Nested, Boolean, \ analyzer, InnerDoc, Completion, Keyword, Text, Integer from elasticsearch_dsl.connections im

Sql数据保存到Excel文件中

public string ExportExcel( DataSet ds,string saveFileName) { try { if (ds == null) return "数据库为空"; bool fileSaved = false; Microsoft.Office.Interop.Excel.Application xlApp = new Microsoft.Office.Interop.Excel.Application(); if (xlApp == null) {

将查询列表内容保存到excel表格中,并保存到相应的盘中

1.先导入相应的jar包 2.一个小的Demo测试[实体类+测试类:保存excel的方法] Student实体类 public class Student{ private int id; private String name; private String email; private Date birth; //相应的set.get方法 还有构造器(有参.无参的) ··············· } Test测试类 public class Test{ public static List

如何将MATLAB数据保存到Excel中

最近做仿真的时候需要用到这个功能,所以网上搜了一下,找到一个可行的方法. ----------------------------------------------------------------------------- excel = actxserver('excel.application');  % 打开一个excel操作对象set(excel,'visible',2);                   % 使excel对象可见,即打开excel窗口, % 实际应用时设置其为

python爬取电影记录并生成excel表格

#coding=utf-8 import urllib2 import re import xlwt import smtplib import random import time from email.mime.multipart import MIMEMultipart from email.mime.text import MIMEText from email.mime.application import MIMEApplication # 1.先获取整个页面信息 # Urllib

爬取搜索出来的电影的下载地址并保存到excel

一.背景 利用Requests模块获取页面,BeautifulSoup来获取需要的内容,最后利用xlsxwriter模块讲内容保存至excel,首先通过讲关键字收拾出来的页面获取到子页面的url,然后再次去抓取获取到子页面的信息保存到excel 二.代码 编写了两个模块,geturldytt和getexceldytt,最后在main内调用 geturldyttd代码如下: #!/bin/env python # -*- coding:utf-8 -*- from urllib import pa

Excel文件数据保存到SQL中

1.获取DataTable /// <summary> /// 查询Excel文件中的数据 /// </summary> /// <param name="strPath">文件路径</param> /// <param name="sheetName">工作表名</param> /// <returns>DataTable</returns> public DataTa

Python爬取房产数据,在地图上展现!

小伙伴,我又来了,这次我们写的是用python爬虫爬取乌鲁木齐的房产数据并展示在地图上,地图工具我用的是 BDP个人版-免费在线数据分析软件,数据可视化软件 ,这个可以导入csv或者excel数据. 首先还是分析思路,爬取网站数据,获取小区名称,地址,价格,经纬度,保存在excel里.再把excel数据上传到BDP网站,生成地图报表 本次我使用的是scrapy框架,可能有点大材小用了,主要是刚学完用这个练练手,再写代码前我还是建议大家先分析网站,分析好数据,再去动手写代码,因为好的分析可以事半功

爬虫再探实战(五)———爬取APP数据——超级课程表【一】

关于爬虫,开始以为只能爬取网页数据,后来知道APP也能抓取.于是,在学校利用空闲时间,耗时两周实现了数据的抓取和简单的数据分析. 目标,抓取超级课程表XX大学(其实是我们大学啦...)学生20000条发帖信息.思路如下: STEP1:为我们的爬虫找到入口 APP请求数据,也是通过网络协议,这样,我们就抓包来定位入口,这里我用的是fiddler.关于设置手机和fiddler的关联,请参考这篇文章. 找到登陆入口为:http://120.55.151.61/V2/StudentSkip/loginC