java爬取百度首页源代码

爬虫感觉挺有意思的,写一个最简单的抓取百度首页html代码的程序。虽然简单了一点,后期会加深的。

 1 package test;
 2
 3     import java.io.BufferedReader;
 4     import java.io.InputStreamReader;
 5     import java.net.URL;
 6     import java.net.URLConnection;
 7
 8     public class Main
 9     {
10         public static void main(String[] args)
11         {
12             // 定义即将访问的链接
13             String url = "https://www.baidu.com/";
14             // 定义一个字符串用来存储网页内容
15             String result = "";
16             // 定义一个缓冲字符输入流
17             BufferedReader in = null;
18             try
19             {
20                 // 将string转成url对象
21                 URL realUrl = new URL(url);
22                 // 初始化一个链接到那个url的连接
23                 URLConnection connection = realUrl.openConnection();
24                 // 开始实际的连接
25                 connection.connect();
26                 // 初始化 BufferedReader输入流来读取URL的响应
27                 in = new BufferedReader(new InputStreamReader(connection.getInputStream()));
28                 // 用来临时存储抓取到的每一行的数据
29                 String line;
30                 while ((line = in.readLine()) != null)
31                 {
32                     // 遍历抓取到的每一行并将其存储到result里面
33                     result += line + "\n";
34                 }
35             } catch (Exception e)
36             {
37                 System.out.println("发送GET请求出现异常!" + e);
38                 e.printStackTrace();
39             } // 使用finally来关闭输入流
40             finally
41             {
42                 try
43                 {
44                     if (in != null)
45                     {
46                         in.close();
47                     }
48                 } catch (Exception e2)
49                 {
50                     e2.printStackTrace();
51                 }
52             }
53             System.out.println(result);
54         }
55     }
56     
时间: 2024-12-14 14:40:12

java爬取百度首页源代码的相关文章

java爬取百度首页logo

两个方法 一个获得Url的网页源代码getUrlContentString,另外一个从源代码中得到想要的地址片段,其中需要用到正则表达式去匹配 得到网页源代码的过程: 地址为string,将地址转换为java中的url对象 url的openConnection方法返回urlConnection urlConnection的connect方法建立连接 新建一个InputStreamReader对象,其中InputStreamReader的构建需要InputStream输入流对象,而URLConne

Python爬虫实战二之爬取百度贴吧帖子

大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不好使,八成是正则表达式那儿匹配不到了,请更改一下正则,当然最主要的还是帮助大家理解思路. 2016/12/2 本篇目标 1.对百度贴吧的任意帖子进行抓取 2.指定是否只抓取楼主发帖内容 3.将抓取到的内容分析并保存到文件 1.URL格式的确定 首先,我们先观察一下百度贴吧的任意一个帖子. 比如:ht

第三百三十四节,web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

第三百三十四节,web爬虫讲解2-Scrapy框架爬虫-Scrapy爬取百度新闻,爬取Ajax动态生成的信息 crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻标题和rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息,那么这种一般都是 js 的 Ajax 动态请求生成的信息 我们以百度新闻为列: 1.分析网站 首先我们浏览器打开百度新闻,在网页中间部分找一条新闻信息 然后查看源码,看看在源码里是否有

python爬取百度搜索图片

在之前通过爬取贴吧图片有了一点经验,先根据之前经验再次爬取百度搜索界面图片 废话不说,先上代码 #!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2017/7/22 10:44 # @Author : wqj # @Contact : [email protected] # @Site : # @File : test.py # @Software: PyCharm Community Edition import requests

web爬虫讲解—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息,那么这种一般都是 js 的 Ajax 动态请求生成的信息 我们以百度新闻为列: 1.分析网站 首先我们浏览器打开百度新闻,在网页中间部分找一条新闻信息 然后查看源码,看看在源码里是否有这条新闻,可以看到源文件里没有这条信息,这种情况爬虫是无法爬取到信息的 那么我们就需要抓包分析了,启动抓包软件和抓包

爬取百度热搜榜

1.打开网站:http://top.baidu.com/buzz?b=341&c=513&fr=topbuzz_b42 2.按Ctrl+u查看网页源代码 3.招到要爬取的数据 4. import requests from bs4 import BeautifulSoup import pandas as pd url = 'http://top.baidu.com/buzz?b=341&c=513&fr=topbuzz_b341_c513' headers = {'Use

爬取百度实时热点前十排行榜

import requests#导入相应库from bs4 import BeautifulSoupimport pandas as pdurl = 'http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b341_c513'#要爬取的网址headers = {'User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/

[PHP] 网盘搜索引擎-采集爬取百度网盘分享文件实现网盘搜索(二)

前情提要:最近使用PHP实现了简单的网盘搜索程序,并且关联了微信公众平台,名字是网盘小说.用户可以通过公众号输入关键字,公众号会返回相应的网盘下载地址.就是这么一个简单的功能,类似很多的网盘搜索类网站,我这个采集和搜索程序都是PHP实现的,全文和分词搜索部分使用到了开源软件xunsearch. 上一篇([PHP] 网盘搜索引擎-采集爬取百度网盘分享文件实现网盘搜索)中我重点介绍了怎样去获取一大批的百度网盘用户,这一篇介绍怎样获得指定网盘用户的分享列表.同样的原理,也是找到百度获取分享列表的接口,

爬取唯品会首页商品分类及链接

很久之前做的东西.一直没时间分享,今天有空正好分享出来. 想做个爬取唯品会首页的商品分类和链接的脚本.第一反应是用BeautifulSoup.但是在浏览器里调试了很久没有发现链接,无奈只能放弃了使用BeautifulSoup. 尝试了抓包,我们看看下面是抓到的包: 通过多次的抓取,终于抓到了两个接口.然后点击查看两个接口中我们抓到的headers 我们可以很清楚的看到,两个接口除了ids这个字段的值不一样,其他的东西都是一样的.我们可以双击打开这两个接口,就会发现里面返回的内容正好是我们想要的东