微信,爬取每日一句,发送至多人,多个群

Timer(5, send_news)

每日一句,发送至多人,多个群

 1 # -*- coding: utf-8 -*-
 2 #from __future__ import unicode_literals
 3 from threading import Timer
 4 from wxpy import *
 5 import requests
 6 bot = None
 7 def get_news1():
 8     #获取金山词霸每日一句,英文和翻译
 9     url = "http://open.iciba.com/dsapi/"
10     r = requests.get(url)
11     print(r.json())
12     contents = r.json()[‘content‘]
13     note = r.json()[‘note‘]
14     translation = r.json()[‘translation‘]
15     return contents,note,translation
16 def login_wechat():
17
18     global bot
19     #bot = Bot()
20     bot = Bot(console_qr=2,cache_path="botoo.pkl")#Linux专用,像素二维码
21
22 def send_news():
23     if bot == None:
24         login_wechat()
25     try:
26         my0_friend = bot.friends().search(u‘王琳杰‘)[0]    #你朋友的微信名称,不是备注,也不是微信帐号。
27         my1_friend = bot.friends().search(u‘浮生若梦‘)[0]
28         #my2_friend = bot.friends().search(u‘e.g.‘)[0]
29
30         my0_groups = bot.groups().search(u‘聊天机器人测试‘)[0]    #你群的微信名称。
31         my1_groups = bot.groups().search(u‘测试‘)[0]
32
33         my0_friend.send(get_news1()[0])
34         #my_friend.send(get_news1()[1])
35         #my_friend.send(get_news1()[2])
36         #my_friend.send(get_news1()[1][5:])
37         my1_friend.send(get_news1()[0])
38         #my2_friend.send(get_news1()[0])
39
40         my0_groups.send(get_news1()[0])
41         my1_groups.send(get_news1()[0])
42         #t = Timer(86400, send_news) #每86400秒(1天),发送1次,不用linux的定时任务是因为每次登陆都需要扫描二维码登陆,很麻烦的一件事,就让他一直挂着吧
43         t = Timer(5, send_news)
44         t.start()
45     except:
46         print(u"今天消息发送失败了")
47
48 ‘‘‘
49 schedule.every().day.at("12:30").do(send_news) #规定每天12:30执行job()函数
50 while True:
51     schedule.run_pending()#确保schedule一直运行
52     time.sleep(1)
53 ‘‘‘
54
55 if __name__ == "__main__":
56     send_news()
57     #print(get_news1()[0])
58     #print(get_news1()[1][5:])

原文地址:https://www.cnblogs.com/wanglinjie/p/9291658.html

时间: 2024-11-06 19:52:32

微信,爬取每日一句,发送至多人,多个群的相关文章

26、自动爬取每日的天气,并定时把天气数据和穿衣提示发送到你的邮箱

自动爬取每日的天气,并定时把天气数据和穿衣提示发送到你的邮箱. 之所以选择这个相对朴实的爬虫项目,是因为天气每天都会有变化,那么在学完这一关之后,不出意外,你就可以在明早收到天气信息了.以此,亲身体验程序的作用. 你还可以把每日的天气和温馨的穿衣提示发送到你的恋人.家人.或朋友的邮箱里,这也是传递心意的一种方式. 总体上来说,可以把这个程序分成三个功能块:[爬虫]+[邮件]+[定时] 1 import requests 2 import time 3 import schedule 4 from

爬取工大新闻并发送到邮箱中

1 #coding:utf-8 2 import requests 3 from pyquery import PyQuery as pq 4 import urllib2, json,sys,smtplib 5 from email.mime.text import MIMEText 6 7 reload(sys) 8 sys.setdefaultencoding('utf-8')#避免中文编码问题 9 10 11 mailto_list=["[email protected]"]

Python 爬取周杰伦instagram

Python 爬取周杰伦instagram 整体框架 使用国内能访问的某国外 app angine 爬取Jay的 Instagram 并显示,再使用国内的 sae 访问这个网站,再爬取一次并发送到微博小号. bs4 使用requests爬取 Instagram 时候,并没有加request header,Instagram 对 robot 还算友好,直接返回不带 js 的网页信息.通过bs4迅速定位到照片.视频信息,再用正则表达式提取到链接并下载.显示. from bs4 import Beau

爬虫爬取百度搜狗图片持久化存储

1.图片下载 # 百度图片:http://image.baidu.com/# 搜狗图片:https://pic.sogou.com/ # 图片爬取:1).寻找图片下载的url: elements与network抓包2).浏览器中访问url, 进行验证3).编写代码获取url4).请求url地址, 获取二进制流5).将二进制流写入文件 # 百度图片:import timeimport requestsfrom lxml import etreefrom selenium import webdri

Python-定时爬取指定城市天气(一)-发送给关心的微信好友

一.背景 上班的日子总是3点一线,家里,公司和上班的路径,对于一个特别懒得我来说,经常遇到上班路上下雨了,而我却没带伞,多么痛的领悟.最近对python有一种狂热的学习热情,写了4年多的C++代码,对于python我不能说简单,但是他做东西确实太快了,现有的第三方资源真的炒鸡多,用的我也是不亦乐乎.除了上班忘记带伞,每天重复性的工作还有很多,比如上下班打卡.每个礼拜的周报,还有如果有关心的女神,也可以做定时发送心里话,或者定时提醒等各种服务.有时候想如果有一个人能按时提醒我就好了,这种想法也就停

利用python爬取天气预报然后发送给微信好友

需要利用微信的api接口,itchat.然后来看一下代码: #!/usr/bin/python #-*- coding:utf-8 -*- import itchat import re import urllib2 import itchat #模拟浏览器 hearders = "User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60

Python爬取金山词霸每日一句,存储到MySQL中

#!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/7/3 20:25 # @Author : baoshan # @Site : # @File : iciba.py.py # @Software: PyCharm Community Edition # 爬取金山词霸每日一句放到数据库中存储 import json import requests import pymysql host = '10.10.1.10' port

【Python】博客信息爬取-微信消息自动发送

1.环境安装 python -m pip install --upgrade pip pip install bs4 pip install wxpy pip install lxml 2.博客爬取及发送 from bs4 import BeautifulSoup from threading import Timer import requests import traceback from wxpy import * url = '' nIndex = 6 my_groups = None

简单的实现一个python3的多线程爬虫,爬取p站上的每日排行榜

大概半年前我开始学习python,也就是半年前,我半抄半改的同样的爬虫写了出来,由于是单线程的程序,当中出了一点的小错就会崩溃,但是那个爬虫中的header之类的东西现在依旧还是能够使用的,于是我就把之前那份的保留了下来.由于有一半是抄的,自己得到的并不多,这次重写,我相当于又重新学习了一遍.,当中有可能有认识不足的,欢迎指正. 首先我们要想登陆p站,得构造一个请求,p站登陆的请求包括: request = urllib.request.Request( #创建请求 url=login_url,