爬有道翻译

import urllib.requestimport urllib.parseimport jsoncontent=input(‘请输入你要翻译文本\n‘)data={}data[‘i‘] = contentdata[‘from‘] = ‘AUTO‘data[‘to‘] = ‘AUTO‘data[‘smartresult‘] = ‘dict‘data[‘client‘] = ‘fanyideskweb‘data[‘salt‘] = ‘f‘data[‘sign‘] = ‘sign‘data[‘doctype‘] = ‘json‘data[‘version‘] = ‘2.1‘data[‘keyfrom‘] = ‘fanyi.web‘data[‘action‘] = ‘FY_BY_CL1CKBUTTON‘data[‘typoResult‘] = ‘true‘url=‘http://fanyi.youdao.com/translate‘data=urllib.parse.urlencode(data).encode(‘utf-8‘)request=urllib.request.Request(url=url,data=data)response=urllib.request.urlopen(request)html=response.read().decode(‘utf-8‘)html=json.loads(html)print(html[‘translateResult‘][0][0][‘tgt‘])



原文地址:https://www.cnblogs.com/wantao/p/8169353.html

时间: 2024-11-09 02:20:40

爬有道翻译的相关文章

python爬有道翻译

在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data. import urllib.request import urllib.parse import json content=input('请输入需要翻译的内容:') #_o要去掉,否则会出先error_code:50的报错 url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule' data={} #开发者工具

爬虫新手学习2-爬虫进阶(urllib和urllib2 的区别、url转码、爬虫GET提交实例、批量爬取贴吧数据、fidder软件安装、有道翻译POST实例、豆瓣ajax数据获取)

爬虫新手学习1-爬虫基础 1.urllib和urllib2区别实例 urllib和urllib2都是接受URL请求相关模块,但是提供了不同的功能,两个最显著的不同如下: urllib可以接受URL,不能创建设置headers的Request类实例,urlib2可以. url转码 https://www.baidu.com/s?wd=%E5%AD%A6%E7%A5%9E python字符集解码加码过程: 2.爬虫GET提交实例 #coding:utf-8 import urllib #负责url编

使用python2爬取有道翻译

爬虫的核心思想:模拟浏览器正常访问服务器,一般情况只要浏览器能访问的,都可以爬,如果被反爬,则考虑反复测试添加Request Header数据,知道可以爬取为止. 反爬思路目前知道的有:User-Agent,Cookie,Referer,访问速度,验证码,用户登录及前端js代码验证等.本例遇到js验证 User-Agent Referer Cookie共计4种反爬机制. 关键部分是,参数headers和data的构造,headers要进行反复测试,data数据里面的变量查找思路. 参考资料: 用

Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

一.urlopen的url参数 Agent url不仅可以是一个字符串,例如:http://www.baidu.com.url也可以是一个Request对象,这就需要我们先定义一个Request对象,然后将这个Request对象作为urlopen的参数使用,方法如下: # -*- coding: UTF-8 -*- from urllib import request if __name__ == "__main__": req = request.Request("http

Python制作有道翻译小工具

该工具主要是利用了爬虫,爬取web有道翻译的内容. 然后利用简易GUI来可视化结果. 首先我们进入有道词典的首页,并点击翻译结果的审查元素 之后request响应网页,并分析网页,定位到翻译结果. 使用tkinter来制作一个建议的GUI 期间遇到的一个问题则是如何刷新翻译的结果,否则的话会在text里一直累加翻译结果. 于是,在mainloop里面用到了T1.delete方法,来每次删除TEXT里的内容. import urllib.request import urllib.parse im

如何调用有道翻译API(Java,HTTP)

申请Key 首先如图进入有道翻译,在下方点击"有道翻译API". 紧接着来调用数据接口,按提示完成下列输入框. 如下图所示,已经申请成功了. 下图是官方给的示例,可以有xml和json.jsonp等三种数据格式. 代码(Java) public class TestPost { public static void main(String[] args) { new ReadByPost().start(); } } class ReadByPost extends Thread{ @

linux下终端使用有道翻译

linux下面使用终端,有的时候需要查找一个单词,都需要打开浏览器通过网页来查找单词,这样效率会会非常的繁琐,并且也会降低工作效率. 之前刚开始看python文档的时候,看过别人说的一个用python写的在终端下查单词的脚本,当时没记录下来,后来也没找到. 今天本来是想解决我网站的显示的问题,但是想到这个不做了就感觉哪里不对,一股强迫症的感觉.. 自己用python写了一个脚本,用的是有道翻译的api,感谢有道. 使用方法为,python youdao.py  word  ,单词 word为你要

Java接口测试之使用有道翻译API

写接口测试框架,找了有道翻译API来当测试数据 package com.httpGetTest; import java.beans.Encoder; import java.net.URLEncoder; import java.security.MessageDigest; import java.util.HashMap; import java.util.Map; public class CreatHttpUrl { public static void main(String[] a

Android应用记录一:有道翻译API调用

因为某些原因,我需要记单词,而且讨厌广告,所以就想着自己写个能够查自己不认识的单词并且以后可以随时查看的APP. 首先我需要调用一个翻译API,中文翻译比较好用的API有有道翻译API,百度翻译API等,因为先期用过百度地图API,觉得很好用,所以我先查阅了百度翻译API 觉得还不错,因为我写的APP是给自己用的,所以这肯定够用,然后我就申请了一个API接口,当我看了文档之后,百度为了安全的原因,在现版本的接口中加入了签名,通过一定的输入序列形成MD5序列,而这个感觉有点麻烦,虽然我后来试了下,