自动生成文章与抓取网页文章

 try
           {
               TreeNode tr = treeView1.SelectedNode;  //父节点 为了判断选中的是哪个节点才定义的这个变量

               //如果我选的父节点是第一个,并且子节点也是第一个,就从数据库里随机生成一篇符合子节点是第一个条件的论文
               if (tr.Parent.Index == 0 && treeView1.SelectedNode.Index == 0)//经管类审计 //tr.Parent.Index==0 父节点的索引
               {
                   textBox1.Enabled = true;
                   Random r = new Random();
                   int a = r.Next(1, 6);
                   if (a == 3)
                   {
                       a = r.Next(1, 6);
                   }
                   else
                   {
                       string code = a.ToString();
                       lunwenData s = new lunwenDA().Select(code);

                       textBox1.Text = s.Zhengwen;
                       MessageBox.Show("生成成功");
                   }
               }

               else if (tr.Parent.Index == 0 && treeView1.SelectedNode.Index == 2)//经管类会计
               {
                   textBox1.Enabled = true;
                   Random r = new Random();
                   int a = r.Next(6, 9);
                   string code = a.ToString();
                   lunwenData s = new lunwenDA().Select(code);

                   textBox1.Text = s.Zhengwen;
                   MessageBox.Show("生成成功");
               }
               else
               {
                   textBox1.Enabled = true;
                   MessageBox.Show("暂时还没有论文");
               }
           }
           catch (Exception)
           {

               MessageBox.Show("请先选择你想要生成的论文类型");
           }

 private void button1_Click(object sender, EventArgs e)
        {
            try
            {
                #region
                //HttpWebRequest 网页请求
                HttpWebRequest webRequest = (HttpWebRequest)WebRequest.Create("" + textBox2.Text + "");
                //HttpWebResponse 网页回应
                HttpWebResponse webResponse = (HttpWebResponse)webRequest.GetResponse();
                //Stream 流
                //若成功取得网页的内容,则以System.IO.Stream形式返回,
                Stream stream = webResponse.GetResponseStream();  //将回应的内容存到流里面
                StreamReader path = new StreamReader(stream, Encoding.Default); //将流的内容存到path里面
                //textBox1.Text = path.ReadToEnd();
                #endregion
                //下面开始截取字符串,抓取文章
                string x = path.ReadToEnd();

                //文章标题
                //string y = x.Substring(x.IndexOf("<h1 class=‘title‘>"), (x.IndexOf("</h1>") - x.IndexOf( "<h1 class=‘title‘>")));
                string zhengwen = x.Substring(x.IndexOf("<strong>"), (x.LastIndexOf("<strong>") - x.IndexOf("<strong>")));//从第几位开始截,截多长
                string qq = RemoveTags(zhengwen);//去除各种标签
                textBox1.Text = qq;
            }
            catch (Exception)
            {

                MessageBox.Show("请确保网络连接没有问题");
            }
            

时间: 2024-11-11 20:16:28

自动生成文章与抓取网页文章的相关文章

基于Node.js的强大爬虫 能直接发布抓取的文章哦

基于Node.js的强大爬虫 能直接发布抓取的文章哦 基于Node.js的强大爬虫能直接发布抓取的文章哦!本爬虫源码基于WTFPL协议,感兴趣的小伙伴们可以参考一下 一.环境配置 1)搞一台服务器,什么linux都行,我用的是CentOS 6.5: 2)装个mysql数据库,5.5或5.6均可,图省事可以直接用lnmp或lamp来装,回头还能直接在浏览器看日志: 3)先安个node.js环境,我用的是0.12.7,更靠后的版本没试过: 4)执行npm -g install forever,安装f

抓取天涯文章的蜘蛛代码,刚经过更新(因为天涯页面HTML代码变化)

#_*_coding:utf-8-*- import urllib2 import traceback import codecs from BeautifulSoup import BeautifulSoup def openSoup(url,code): page = urllib2.urlopen(url) soup = BeautifulSoup(page,fromEncoding=code)#,fromEncoding="gb2312" #soup = BeautifulSo

使用redis所维护的代理池抓取微信文章

搜狗搜索可以直接搜索微信文章,本次就是利用搜狗搜搜出微信文章,获得详细的文章url来得到文章的信息.并把我们感兴趣的内容存入到mongodb中. 因为搜狗搜索微信文章的反爬虫比较强,经常封IP,所以要在封了IP之后切换IP,这里用到github上的一个开源类,当运行这个类时,就会动态的在redis中维护一个ip池,并通过flask映射到网页中,可以通过访问 localhost:5000/get/ 来获取IP 这是搜狗微信搜索的页面, 构造搜索url .搜索时会传递的参数,通过firefox浏览器

jsoup抓取网页+详细讲解

jsoup抓取网页+详细讲解 Java 程序在解析 HTML 文档时,相信大家都接触过 htmlparser 这个开源项目,我曾经在 IBM DW 上发表过两篇关于 htmlparser 的文章,分别是:从 HTML 中攫取你所需的信息和 扩展 HTMLParser 对自定义标签的处理能力.但现在我已经不再使用 htmlparser 了,原因是 htmlparser 很少更新,但最重要的是有了 jsoup . jsoup 是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址.HT

使用wget工具抓取网页和图片 成功尝试

使用wget工具抓取网页和图片 发表于1年前(2014-12-17 11:29)   阅读(2471) | 评论(14) 85人收藏此文章, 我要收藏 赞7 wget 网页抓取 图片抓取 目录[-] 奇怪的需求 wget概述 wget尝试 wget正解 奇怪的需求 公司需要将服务器的网页缓存到路由器,用户在访问该网页时就直接取路由器上的缓存即可.虽然我不知道这个需求有什么意义,但还是尽力去实现吧. wget概述 wget是unix和类unix下的一个网页抓取工具,待我熟悉它后,发现它的功能远不止

爬虫抓取网页相似度判断

爬虫抓取网页过程中,会产生很多的问题,当然最重要的一个问题就是重复问题,网页的重复抓取.最简单的方式就是对url去重.已经抓取过的url不再抓取.但是其实在实际业务中是需要对于已经抓取过的URL进行再次抓取的.例如 BBS .bbs存在大量的更新回复,但是url不会发生改变. 一般情况下的url去重方式,就是判断url是否抓取过,如果抓取过就不再抓取,或者是在一定时间内不再抓取.. 我的需求也是这样的, 所以首先做的就是url去重. 在爬虫发现链接,加入待抓取队列的时候,会对url进行验证,是否

Jumony快速抓取网页 --- Jumony使用笔记--icode

作者:郝喜路   个人主页:http://www.cnicode.com      博客地址:http://haoxilu.cnblogs.com    时间:2014年6月26日 19:25:02 刚刚在博客园 看到一篇博文<使用HttpWebRequest和HtmlAgilityPack抓取网页(拒绝乱码,拒绝正则表达式)>  ,感觉不错,作者写的也挺好的,然后在看了园子里的朋友的评论后,我知道了有一个更牛x的工具——Jumony .这个工具用起来可谓称之为简单.高效. 特此记录和分享,J

MFC抓取网页代码简单版。

最近又在网上找了一些有关MFC抓取网页代码的文章看,发现有个比较简单的代码,和大家分享下. CInternetSession session(NULL, 0); CHttpFile* htmlFile = NULL; CString strLine, strHtml; CString url = _T("http://www.tqyb.com.cn/data/gzWeather/gz_weatherForecastInDays.js?"); TCHAR sRecv[1024]; UIN

使用HttpWebRequest和HtmlAgilityPack抓取网页(拒绝乱码,拒绝正则表达式)

废话不多说, 直接说需求. 公司的网站需要抓取其他网站的文章,但任务没到我这,同事搞了一下午没搞出来.由于刚刚到公司, 想证明下自己,就把活揽过来了.因为以前做过,觉得应该很简单,但当我开始做的时候,我崩溃了,http请求后,得到的是字符串竟然是乱码,然后就各种百度(谷歌一直崩溃中),最后找到了原因.由于我要抓取的网页做了压缩,所以当我抓的时候,抓过来的是压缩后的,所以必须解压一下,如果不解压,不管用什么编码方式,结果还是乱码.直接上代码: 1 public Encoding GetEncodi