利用Python写了一个翻译工具!然后就成为了学弟眼中的大神了!

1.爬虫前的分析

因为要实现有道翻译的翻译功能,就需要找到它的接口,打开审查元素,来到网络监听窗口(Network),查看API接口。

通过查看网页源代码的方式查看有道翻译的js文件,来查看salt和sign是怎么生成的。

  • 查看网页源代码找到js文件

找到js文件,然后点击这个文件,跳转到这个源文件中,然后全选所有的代码,复制下来

2.Python使用MD5加密字符串

1. 介于有道翻译使用了MD5加密,就对MD5加密进行了学习

3.代码操作基于python3.5

实现翻译功能

是不是很简单啊!get到去装逼吧!哈哈

进群:125240963  即可获取数十套PDF哦!

原文地址:https://www.cnblogs.com/PY1780/p/9309490.html

时间: 2024-08-02 17:30:15

利用Python写了一个翻译工具!然后就成为了学弟眼中的大神了!的相关文章

利用python写出1加到任意数关于range()函数妙用的交互小程序

认真!????? ------------ 利用Python写的一个从1加到任意大小的数字(电脑吃得消再说)的交互脚本. 在这里我运用了range函数(我喜欢叫它蟒岭函数,因为range有“岭”的意思),此函数可以有个有趣的用法:range(x),解释器会列出从0~x-1的所有整数:如果是range(y,x),解释器就会列出从从y~x-1的所有整数(x-1 等价于 不包括x,应该能够理解吧):还有一种range(y,x,z),解释器就会跳跃z列出从y~x-1的所有整数,默认的跳跃间距为1,就如r

Python写了一个WC命令

Python 写了一个收发数据用的一个wc命令,更多学习交流请加365534424 ,直接上代码 #!/usr/bin/env python # coding:utf-8 # author: 51reboot.com # QQ群:365534424 from optparse import OptionParser import os class Wc(object):     def __init__(self):         self.n = 0              # line 

Python写的一个优美的定时器,定时精度可调

# -* coding: utf-8 -*- import sys import os import getopt import threading import time def Usage(): usage_str = '''说明: \t定时器 \timer.py -h 显示本帮助信息,也可以使用--help选项 \timer.py -d num 指定一个延时时间(以毫秒为单位) \t 也可以使用--duration=num选项 ''' print(usage_str) def args_p

利用python写一个有道翻译的脚本

废话不多说,直接上代码 import urllib.request import urllib.parse import json content = input("请输入要翻译的内容:") url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null' data = {} data['type'] = 'AU

利用Python写一个闰年计算器和每月天数计算器

闰年计算器 题目:输入年份,判断该年是否为闰年. 方法:1.能被400整除的年份 2.能被4整除,但不能被100整除 1 print('---闰年判断器kql,按q退出---') 2 while True: 3 y = input('请输入年份:') 4 if (y == 'q'): 5 break 6 y = int(y) 7 if (y % 400 == 0 or (y % 4 == 0 and y % 100 != 0)): 8 print(y,'年为闰年!') 9 else: 10 pr

看我如何利用Python写简单网络爬虫

平时没事喜欢看看freebuf的文章,今天在看文章的时候,无线网总是时断时续,于是自己心血来潮就动手写了这个网络爬虫,将页面保存下来方便查看 先分析网站内容,红色部分即是网站文章内容div,可以看到,每一页有15篇文章 随便打开一个div来看,可以看到,蓝色部分除了一个文章标题以外没有什么有用的信息,而注意红色部分我勾画出的地方,可以知道,它是指向文章的地址的超链接,那么爬虫只要捕捉到这个地址就可以了. 接下来在一个问题就是翻页问题,可以看到,这和大多数网站不同,底部没有页数标签,而是查看更多,

利用Python写百度贴吧爬虫

最近,我们这边需要做一次防爬虫和机器蜘蛛的困扰,感觉困惑,有点无从入手,倒不如,直接用Python来写一个Spiner理解其各种原理,再下手也不迟啊,于是便立刻去写一个爬虫程序. 使用方法: 新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行. 程序功能: 将贴吧中楼主发布的内容打包txt存储到本地. 好,不废话,直接上代码: #!/usr/bin/python #-*- coding: utf-8 -*- import string import urllib2 import

js 利用throw 写的一个小程序

在下边的小程序中比较特殊的是使用isNaN()函数判断一个参数是不是数字, 1 <!DOCTYPE html> 2 <!DOCTYPE html> 3 <html> 4 <head> 5 <title></title> 6 7 <script type="text/javascript"> 8 function myFunction() { 9 10 var str = document.getElem

利用HttpClient写的一个简单页面获取

之前就听说过利用网络爬虫来获取页面,感觉还挺有意思的,要是能进行一下偏好搜索岂不是可以满足一下窥探欲. 后来从一本书上看到用HttpClient来爬取页面,虽然也有源码,但是也没说用的HttpClient是哪个版本的,而且HttpClient版本不一样,导致后面很多类也不一样.于是下载了最新的HttpCient版本,并且对着tutorial和网上的文档试着写一个简单的获取页面的例子,最终证明是可行的,但是也遇到了不少问题,而且这个例子也十分简单. import java.io.IOExcepti