获取有道翻译页面

#!/usr/bin/env python
#-*- coding:utf-8 -*-

import urllib
import urllib2

#有一颗耐不住寂寞的心,决定再试试找找其他(除了POST方式)跟有道干起来的爬取方式
#功夫不负有心人 url="http://dict.youdao.com/search?q=python&keyfrom=fanyi.smartResult"

queryword = raw_input("Enter word:")
header = {
   "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"
}
##url="http://dict.youdao.com/search?q=python&keyfrom=fanyi.smartResult"
url = "http://dict.youdao.com/search?q="+queryword+"&keyfrom=fanyi.smartResult"

##response = urllib2.Request(url)
html = urllib.urlopen(url).read()
print html

时间: 2024-10-10 06:30:03

获取有道翻译页面的相关文章

【python】简单的网页内容获取 - 有道翻译英文

正则表达式与python的网页操作练习一: import urllib.request import re qname=input('input english:') qname=qname.strip() url='http://dict.youdao.com/search?le=eng&q='+qname+'&keyfrom=dict.top' html=urllib.request.urlopen(url) source=html.read().decode('UTF-8') reg

python爬虫(10)身边的翻译专家——获取有道翻译结果

本文目的:使用python 实现翻译效果 思路:有道翻译可以直接翻译内容,观察它的网页内容以及URL可以发现,它的基本url 和将要翻译的内容组合起来就是最后翻译的页面 比如: 有道中英文翻译的网址是:http://dict.youdao.com/ 将要翻译的内容是: I'm a Chinese 点击一下翻译,然后出现的含有翻译结果页面的地址是:  http://dict.youdao.com/w/eng/I'm%20a%20chinese/#keyfrom=dict2.index 虽然这个网址

使用python2爬取有道翻译

爬虫的核心思想:模拟浏览器正常访问服务器,一般情况只要浏览器能访问的,都可以爬,如果被反爬,则考虑反复测试添加Request Header数据,知道可以爬取为止. 反爬思路目前知道的有:User-Agent,Cookie,Referer,访问速度,验证码,用户登录及前端js代码验证等.本例遇到js验证 User-Agent Referer Cookie共计4种反爬机制. 关键部分是,参数headers和data的构造,headers要进行反复测试,data数据里面的变量查找思路. 参考资料: 用

python爬有道翻译

在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data. import urllib.request import urllib.parse import json content=input('请输入需要翻译的内容:') #_o要去掉,否则会出先error_code:50的报错 url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule' data={} #开发者工具

python调用有道翻译api实现翻译

通过调用有道翻译的api,实现中译英.其他语言译中文 代码: # coding=utf-8 import urllib import urllib2 import json import time import hashlib class YouDaoFanyi: def __init__(self, appKey, appSecret): self.url = 'https://openapi.youdao.com/api/' self.headers = { "User-Agent"

爬虫新手学习2-爬虫进阶(urllib和urllib2 的区别、url转码、爬虫GET提交实例、批量爬取贴吧数据、fidder软件安装、有道翻译POST实例、豆瓣ajax数据获取)

爬虫新手学习1-爬虫基础 1.urllib和urllib2区别实例 urllib和urllib2都是接受URL请求相关模块,但是提供了不同的功能,两个最显著的不同如下: urllib可以接受URL,不能创建设置headers的Request类实例,urlib2可以. url转码 https://www.baidu.com/s?wd=%E5%AD%A6%E7%A5%9E python字符集解码加码过程: 2.爬虫GET提交实例 #coding:utf-8 import urllib #负责url编

Android应用记录一:有道翻译API调用

因为某些原因,我需要记单词,而且讨厌广告,所以就想着自己写个能够查自己不认识的单词并且以后可以随时查看的APP. 首先我需要调用一个翻译API,中文翻译比较好用的API有有道翻译API,百度翻译API等,因为先期用过百度地图API,觉得很好用,所以我先查阅了百度翻译API 觉得还不错,因为我写的APP是给自己用的,所以这肯定够用,然后我就申请了一个API接口,当我看了文档之后,百度为了安全的原因,在现版本的接口中加入了签名,通过一定的输入序列形成MD5序列,而这个感觉有点麻烦,虽然我后来试了下,

Android使用有道翻译API实如今线翻译功能

在Android应用中,加入在线翻译的功能,这里调用的是有道翻译的API. 使用有道翻译API.首先要申请一个key,申请地址为:有道翻译API申请地址. 申请之后就会得到一个keyfrom和一个key. 获取翻译结果的数据接口为:http://fanyi.youdao.com/openapi.do? keyfrom=<keyfrom>&key=<key>&type=data&doctype=<doctype>&version=1.1&a

Android使用有道翻译API实现在线翻译功能

在Android应用中,添加在线翻译的功能,这里调用的是有道翻译的API. 使用有道翻译API,首先要申请一个key,申请地址为:有道翻译API申请地址. 申请之后就会得到一个keyfrom和一个key. 获取翻译结果的数据接口为:http://fanyi.youdao.com/openapi.do?keyfrom=<keyfrom>&key=<key>&type=data&doctype=<doctype>&version=1.1&am