Python爬虫之诗歌接龙

介绍

??本文将展示如何利用Python爬虫来实现诗歌接龙。

??该项目的思路如下:

  1. 利用爬虫爬取诗歌,制作诗歌语料库;
  2. 将诗歌分句,形成字典:键(key)为该句首字的拼音,值(value)为该拼音对应的诗句,并将字典保存为pickle文件;
  3. 读取pickle文件,编写程序,以exe文件形式运行该程序。

??该项目实现的诗歌接龙,规则为下一句的首字与上一句的尾字的拼音(包括声调)一致。下面将分步讲述该项目的实现过程。

诗歌语料库

??首先,我们利用Python爬虫来爬取诗歌,制作语料库。爬取的网址为:https://www.gushiwen.org,页面如下

由于本文主要为试了展示该项目的思路,因此,只爬取了该页面中的唐诗三百首、古诗三百、宋词三百、宋词精选,一共大约1100多首诗歌。为了加速爬虫,采用并发实现爬虫,并保存到poem.txt文件。完整的Python程序如下:

import re
import requests
from bs4 import BeautifulSoup
from concurrent.futures import ThreadPoolExecutor, wait, ALL_COMPLETED

# 爬取的诗歌网址
urls = [‘https://so.gushiwen.org/gushi/tangshi.aspx‘,
        ‘https://so.gushiwen.org/gushi/sanbai.aspx‘,
        ‘https://so.gushiwen.org/gushi/songsan.aspx‘,
        ‘https://so.gushiwen.org/gushi/songci.aspx‘
        ]

poem_links = []
# 诗歌的网址
for url in urls:
    # 请求头部
    headers = {‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36‘}
    req = requests.get(url, headers=headers)

    soup = BeautifulSoup(req.text, "lxml")
    content = soup.find_all(‘div‘, class_="sons")[0]
    links = content.find_all(‘a‘)

    for link in links:
        poem_links.append(‘https://so.gushiwen.org‘+link[‘href‘])

poem_list = []
# 爬取诗歌页面
def get_poem(url):
    #url = ‘https://so.gushiwen.org/shiwenv_45c396367f59.aspx‘
    # 请求头部
    headers = {‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36‘}
    req = requests.get(url, headers=headers)
    soup = BeautifulSoup(req.text, "lxml")
    poem = soup.find(‘div‘, class_=‘contson‘).text.strip()
    poem = poem.replace(‘ ‘, ‘‘)
    poem = re.sub(re.compile(r"\([\s\S]*?\)"), ‘‘, poem)
    poem = re.sub(re.compile(r"([\s\S]*?)"), ‘‘, poem)
    poem = re.sub(re.compile(r"。\([\s\S]*?)"), ‘‘, poem)
    poem = poem.replace(‘!‘, ‘!‘).replace(‘?‘, ‘?‘)
    poem_list.append(poem)

# 利用并发爬取
executor = ThreadPoolExecutor(max_workers=10)  # 可以自己调整max_workers,即线程的个数
# submit()的参数: 第一个为函数, 之后为该函数的传入参数,允许有多个
future_tasks = [executor.submit(get_poem, url) for url in poem_links]
# 等待所有的线程完成,才进入后续的执行
wait(future_tasks, return_when=ALL_COMPLETED)

# 将爬取的诗句写入txt文件
poems = list(set(poem_list))
poems = sorted(poems, key=lambda x:len(x))
for poem in poems:
    poem = poem.replace(‘《‘,‘‘).replace(‘》‘,‘‘)                .replace(‘:‘, ‘‘).replace(‘“‘, ‘‘)
    print(poem)
    with open(‘F://poem.txt‘, ‘a‘) as f:
        f.write(poem)
        f.write(‘\n‘)

该程序爬取了1100多首诗歌,并将诗歌保存至poem.txt文件,形成我们的诗歌语料库。当然,这些诗歌并不能直接使用,需要清理数据,比如有些诗歌标点不规范,有些并不是诗歌,只是诗歌的序等等,这个过程需要人工操作,虽然稍显麻烦,但为了后面的诗歌分句效果,也是值得的。

诗歌分句

??有了诗歌语料库,我们需要对诗歌进行分句,分句的标准为:按照结尾为。?!进行分句,这可以用正则表达式实现。之后,将分句好的诗歌写成字典:键(key)为该句首字的拼音,值(value)为该拼音对应的诗句,并将字典保存为pickle文件。完整的Python代码如下:

import re
import pickle
from xpinyin import Pinyin
from collections import defaultdict

def main():
    with open(‘F://poem.txt‘, ‘r‘) as f:
        poems = f.readlines()

    sents = []
    for poem in poems:
        parts = re.findall(r‘[\s\S]*?[。?!]‘, poem.strip())
        for part in parts:
            if len(part) >= 5:
                sents.append(part)

    poem_dict = defaultdict(list)
    for sent in sents:
        print(part)
        head = Pinyin().get_pinyin(sent, tone_marks=‘marks‘, splitter=‘ ‘).split()[0]
        poem_dict[head].append(sent)

    with open(‘./poemDict.pk‘, ‘wb‘) as f:
        pickle.dump(poem_dict, f)

main()

我们可以看一下该pickle文件(poemDict.pk)的内容:

当然,一个拼音可以对应多个诗歌。

诗歌接龙

??读取pickle文件,编写程序,以exe文件形式运行该程序。

??为了能够在编译形成exe文件的时候不出错,我们需要改写xpinyin模块的_init_.py文件,将该文件的全部代码复制至mypinyin.py,并将代码中的下面这句代码

data_path = os.path.join(os.path.dirname(os.path.abspath(__file__)),
                             ‘Mandarin.dat‘)

改写为

data_path = os.path.join(os.getcwd(), ‘Mandarin.dat‘)

这样我们就完成了mypinyin.py文件。

??接下来,我们需要编写诗歌接龙的代码(Poem_Jielong.py),完整代码如下:

import pickle
from mypinyin import Pinyin
import random
import ctypes

STD_INPUT_HANDLE = -10
STD_OUTPUT_HANDLE = -11
STD_ERROR_HANDLE = -12

FOREGROUND_DARKWHITE = 0x07  # 暗白色
FOREGROUND_BLUE = 0x09  # 蓝色
FOREGROUND_GREEN = 0x0a  # 绿色
FOREGROUND_SKYBLUE = 0x0b  # 天蓝色
FOREGROUND_RED = 0x0c  # 红色
FOREGROUND_PINK = 0x0d  # 粉红色
FOREGROUND_YELLOW = 0x0e  # 黄色
FOREGROUND_WHITE = 0x0f  # 白色

std_out_handle = ctypes.windll.kernel32.GetStdHandle(STD_OUTPUT_HANDLE)

# 设置CMD文字颜色
def set_cmd_text_color(color, handle=std_out_handle):
    Bool = ctypes.windll.kernel32.SetConsoleTextAttribute(handle, color)
    return Bool

# 重置文字颜色为暗白色
def resetColor():
    set_cmd_text_color(FOREGROUND_DARKWHITE)

# 在CMD中以指定颜色输出文字
def cprint(mess, color):
    color_dict = {
                  ‘蓝色‘: FOREGROUND_BLUE,
                  ‘绿色‘: FOREGROUND_GREEN,
                  ‘天蓝色‘: FOREGROUND_SKYBLUE,
                  ‘红色‘: FOREGROUND_RED,
                  ‘粉红色‘: FOREGROUND_PINK,
                  ‘黄色‘: FOREGROUND_YELLOW,
                  ‘白色‘: FOREGROUND_WHITE
                 }
    set_cmd_text_color(color_dict[color])
    print(mess)
    resetColor()

color_list = [‘蓝色‘,‘绿色‘,‘天蓝色‘,‘红色‘,‘粉红色‘,‘黄色‘,‘白色‘]

# 获取字典
with open(‘./poemDict.pk‘, ‘rb‘) as f:
    poem_dict = pickle.load(f)

#for key, value in poem_dict.items():
    #print(key, value)

MODE = str(input(‘Choose MODE(1 for 人工接龙, 2 for 机器接龙): ‘))

while True:
    try:
        if MODE == ‘1‘:
            enter = str(input(‘\n请输入一句诗或一个字开始:‘))
            while enter != ‘exit‘:
                test = Pinyin().get_pinyin(enter, tone_marks=‘marks‘, splitter=‘ ‘)
                tail = test.split()[-1]
                if tail not in poem_dict.keys():
                    cprint(‘无法接这句诗。\n‘, ‘红色‘)
                    MODE = 0
                    break
                else:
                    cprint(‘\n机器回复:%s‘%random.sample(poem_dict[tail], 1)[0], random.sample(color_list, 1)[0])
                    enter = str(input(‘你的回复:‘))[:-1]

            MODE = 0

        if MODE == ‘2‘:
            enter = input(‘\n请输入一句诗或一个字开始:‘)

            for i in range(10):
                test = Pinyin().get_pinyin(enter, tone_marks=‘marks‘, splitter=‘ ‘)
                tail = test.split()[-1]
                if tail not in poem_dict.keys():
                    cprint(‘------>无法接下去了啦...‘, ‘红色‘)
                    MODE = 0
                    break
                else:
                    answer = random.sample(poem_dict[tail], 1)[0]
                    cprint(‘(%d)--> %s‘ % (i+1, answer), random.sample(color_list, 1)[0])
                    enter = answer[:-1]

            print(‘\n(*****最多展示前10回接龙。*****)‘)
            MODE = 0

    except Exception as err:
        print(err)
    finally:
        if MODE not in [‘1‘,‘2‘]:
            MODE = str(input(‘\nChoose MODE(1 for 人工接龙, 2 for 机器接龙): ‘))

现在整个项目的结构如下(Mandarin.dat文件从xpinyin模块对应的文件夹下复制过来):

切换至该文件夹,输入以下命令即可生成exe文件:

pyinstaller -F Poem_jielong.py

生成的exe文件为Poem_jielong.exe,位于该文件夹的dist文件夹下。为了能够让exe成功运行,需要将poemDict.pk和Mandarin.dat文件复制到dist文件夹下。

测试运行

??运行Poem_jielong.exe文件,页面如下:

本项目的诗歌接龙有两种模式,一种为人工接龙,就是你先输入一句诗或一个字,然后就是计算机回复一句,你回复一句,负责诗歌接龙的规则;另一种模式为机器接龙,就是你先输入一句诗或一个字,机器会自动输出后面的接龙诗句(最多10个)。

??先测试人工接龙模式:

??再测试机器接龙模式:

总结

??该项目的Github地址为:https://github.com/percent4/Shicijielong

??感谢阅读,欢迎大家交流~~

注意:本人现已开通微信公众号: Python爬虫与算法(微信号为:easy_web_scrape), 欢迎大家关注哦~~

原文地址:https://www.cnblogs.com/jclian91/p/9813142.html

时间: 2024-10-25 18:54:59

Python爬虫之诗歌接龙的相关文章

Python爬虫入门教程:博客园首页推荐博客排行的秘密

1. 前言 虽然博客园注册已经有五年多了,但是最近才正式开始在这里写博客.(进了博客园才知道这里面个个都是人才,说话又好听,超喜欢这里...)但是由于写的内容都是软件测试相关,热度一直不是很高.看到首页的推荐博客排行时,心里痒痒的,想想看看这些大佬究竟是写了什么文章这么受欢迎,可以被推荐.所以用Python抓取了这100位推荐博客,简单分析了每个博客的文章分类,阅读排行榜,评论排行榜及推荐排行榜,最后统计汇总并生成词云.正好这也算是一篇非常好的Python爬虫入门教程了. 2. 环境准备 2.1

开始我的Python爬虫学习之路

因为工作需要经常收集一些数据,我就想通过学爬虫来实现自动化完成比较重复的任务. 目前我Python的状况,跟着敲了几个教程,也算是懂点基础,具体比较深入的知识,是打算从做项目中慢慢去了解学习. 我是觉得如果一开始就钻细节的话,是很容易受到打击而放弃的,做点小项目让自己获得点成就感路才更容易更有信心走下去. 反正遇到不懂的就多查多问就对了. 知乎上看了很多关于入门Python爬虫的问答,给自己总结出了大概的学习方向. 基础: HTML&CSS,JOSN,HTTP协议(这些要了解,不太需要精通) R

Python爬虫实战(2):爬取京东商品列表

1,引言 在上一篇<Python爬虫实战:爬取Drupal论坛帖子列表>,爬取了一个用Drupal做的论坛,是静态页面,抓取比较容易,即使直接解析html源文件都可以抓取到需要的内容.相反,JavaScript实现的动态网页内容,无法从html源代码抓取需要的内容,必须先执行JavaScript. 我们在<Python爬虫使用Selenium+PhantomJS抓取Ajax和动态HTML内容>一文已经成功检验了动态网页内容的抓取方法,本文将实验程序进行改写,使用开源Python爬虫

转载:用python爬虫抓站的一些技巧总结

原文链接:http://www.pythonclub.org/python-network-application/observer-spider 原文的名称虽然用了<用python爬虫抓站的一些技巧总结>但是,这些技巧不仅仅只有使用python的开发可以借鉴,我看到这篇文章的时候也在回忆自己做爬虫的过程中也用了这些方法,只是当时没有系统的总结而已,谨以此文为鉴,为以前的爬虫程序做一个总结. 转载原文如下: 学用python也有3个多月了,用得最多的还是各类爬虫脚本:写过抓代理本机验证的脚本,

python爬虫Urllib实战

Urllib基础 urllib.request.urlretrieve(url,filenname) 直接将网页下载到本地 import urllib.request >>> urllib.request.urlretrieve("http://www.hellobi.com",filename="D:\/1.html") ('D:\\/1.html', <http.client.HTTPMessage object at 0x0000000

python 爬虫抓取心得

quanwei9958 转自 python 爬虫抓取心得分享 urllib.quote('要编码的字符串') 如果你要在url请求里面放入中文,对相应的中文进行编码的话,可以用: urllib.quote('要编码的字符串') query = urllib.quote(singername) url = 'http://music.baidu.com/search?key='+query response = urllib.urlopen(url) text = response.read()

[Python爬虫] Selenium爬取新浪微博客户端用户信息、热点话题及评论 (上)

一. 文章介绍 前一篇文章"[python爬虫] Selenium爬取新浪微博内容及用户信息"简单讲述了如何爬取新浪微博手机端用户信息和微博信息. 用户信息:包括用户ID.用户名.微博数.粉丝数.关注数等. 微博信息:包括转发或原创.点赞数.转发数.评论数.发布时间.微博内容等. 它主要通过从文本txt中读取用户id,通过"URL+用户ID" 访问个人网站,如柳岩: http://weibo.cn/guangxianliuya 因为手机端数据相对精简简单,所以采用输

大量 python 爬虫源码分享--说说 python 爬虫这件小事

没有爬虫就没有互联网,越来越觉得写 Python 爬虫原来是一件快乐而高兴的事情,以下是本人收集整理的一批 python 爬虫代码,顺便分享到了别的网站上,喜欢的下下来看看吧. 内容: yunpan.360.cn.py 360 网盘爬虫 ed2k_search.py 电驴爬虫 music.163.com.py 163 音乐爬虫 music.baidu.com.py 百度音乐爬虫 pan.baidu.com.py 百度网盘爬虫 115.py 115 爬虫 91porn.py 91porn 爬虫 等

[Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍

目录(?)[+] 前三篇文章介绍了安装过程和通过Selenium实现访问Firefox浏览器并自动搜索"Eastmount"关键字及截图的功能.而这篇文章主要简单介绍如何实现自动登录163邮箱,同时继续介绍Selenium+Python官网Locating Elements部分内容.        希望该篇基础性文章对你有所帮助,如果有错误或不足之处,请海涵~        [Python爬虫] 在Windows下安装PhantomJS和CasperJS及入门介绍(上)