服务器之家:专注于服务器技术及软件下载分享
分类导航

PHP教程|ASP.NET教程|Java教程|ASP教程|编程技术|正则表达式|C/C++|IOS|C#|Swift|Android|VB|R语言|JavaScript|易语言|vb.net|

服务器之家 - 编程语言 - C# - 利用C#实现最基本的小说爬虫示例代码

利用C#实现最基本的小说爬虫示例代码

2022-01-24 13:43XinYiBuFang C#

最近在学习c#,碰巧遇到个小说站不错,就索性当个练习,所以这篇文章主要给大家介绍了关于利用C#实现最基本的小说爬虫的相关资料,文中给出了详细的示例代码供大家参考学习,需要的朋友们下面随着小编来一起学习学习吧。

前言

作为一个新手,最近在学习c#,自己折腾弄了个简单的小说爬虫,实现了把小说内容爬下来写入txt,还只能爬指定网站。

第一次搞爬虫,涉及到了网络协议,正则表达式,弄得手忙脚乱跑起来效率还差劲,慢慢改吧。下面话不多说了,来一起看看详细的介绍吧。

爬的目标:http://www.166xs.com/xiaoshuo/83/83557/

利用C#实现最基本的小说爬虫示例代码

利用C#实现最基本的小说爬虫示例代码

利用C#实现最基本的小说爬虫示例代码

一、先写httpwebrequest把网站扒下来

这里有几个坑,大概说下:

第一个就是记得弄个代理ip爬网站,第一次忘了弄代理然后ip就被封了。。。。。

第二个就是要判断网页是否压缩,第一次没弄结果各种转码gbk utf都是乱码。后面解压就好了。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
/// <summary>
  /// 抓取网页并转码
  /// </summary>
  /// <param name="url"></param>
  /// <param name="post_parament"></param>
  /// <returns></returns>
  public string httpget(string url, string post_parament)
  {
   string html;
   httpwebrequest web_request = (httpwebrequest)webrequest.create(url);
   web_request.timeout = 30000;
   web_request.method = "get";
   web_request.useragent = "mozilla/4.0";
   web_request.headers.add("accept-encoding", "gzip, deflate");
   //web_request.credentials = credentialcache.defaultcredentials;
 
   //设置代理属性webproxy-------------------------------------------------
   webproxy proxy = new webproxy("111.13.7.120", 80);
   //在发起http请求前将proxy赋值给httpwebrequest的proxy属性
   web_request.proxy = proxy;
 
   httpwebresponse web_response = (httpwebresponse)web_request.getresponse();
 
   if (web_response.contentencoding.tolower() == "gzip"// 如果使用了gzip则先解压
   {
    using (stream stream_receive = web_response.getresponsestream())
    {
     using (var zip_stream = new gzipstream(stream_receive, compressionmode.decompress))
     {
      using (streamreader stream_reader = new streamreader(zip_stream, encoding.default))
      {
       html = stream_reader.readtoend();
      }
     }
    }
   }
   else
   {
    using (stream stream_receive = web_response.getresponsestream())
    {
     using (streamreader stream_reader = new streamreader(stream_receive, encoding.default))
     {
      html = stream_reader.readtoend();
     }
    }
   }
 
   return html;
  }

二、下面就是用正则处理内容了,由于正则表达式不熟悉所以重复动作太多。

1.先获取网页内容

?
1
2
iwebhttprepository webhttprepository = new webhttprepository();
  string html = webhttprepository.httpget(url_txt.text, "");

2.获取书名和文章列表

书名

利用C#实现最基本的小说爬虫示例代码

文章列表

利用C#实现最基本的小说爬虫示例代码

?
1
2
3
4
5
6
7
8
string novel_name = regex.match(html, @"(?<=<h1>)([\s\s]*?)(?=</h1>)").value; //获取书名
 
   regex regex_menu = new regex(@"(?is)(?<=<dl class=""book_list"">).+?(?=</dl>)");
   string result_menu = regex_menu.match(html).value; //获取列表内容
 
 
   regex regex_list = new regex(@"(?is)(?<=<dd>).+?(?=</dd>)");
   var result_list = regex_list.matches(result_menu); //获取列表集合

3.因为章节列表前面有多余的<dd>,所以要剔除

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
int i = 0; //计数
   string menu_content = ""; //所有章节
   foreach (var x in result_list)
   {
    if (i < 4)
    {
     //前面五个都不是章节列表,所以剔除
    }
    else
    {
     menu_content += x.tostring();
    }
    i++;
   }

4.然后获取<a>的href和innerhtml,然后遍历访问获得内容和章节名称并处理,然后写入txt

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
regex regex_href = new regex(@"(?is)<a[^>]*?href=(['""]?)(?<url>[^'""\s>]+)\1[^>]*>(?<text>(?:(?!</?a\b).)*)</a>");
   matchcollection result_match_list = regex_href.matches(menu_content); //获取href链接和a标签 innerhtml
 
   string novel_path = directory.getcurrentdirectory() + "\\novel\\" + novel_name + ".txt"//小说地址
   file.create(novel_path).close();
   streamwriter write_content = new streamwriter(novel_path);
 
 
   foreach (match result_single in result_match_list)
   {
    string url_text = result_single.groups["url"].value;
    string content_text = result_single.groups["text"].value;
 
    string content_html = webhttprepository.httpget(url_txt.text + url_text, "");//获取内容页
 
    regex rege_content = new regex(@"(?is)(?<=<p class=""book_text"">).+?(?=</p>)");
    string result_content = rege_content.match(content_html).value; //获取文章内容
 
 
    regex regex_main = new regex(@"(    )(.*)");
    string rsult_main = regex_main.match(result_content).value; //正文  
    string screen_content = rsult_main.replace(" ", "").replace("<br />", "\r\n");
 
    write_content.writeline(content_text + "\r\n");//写入标题
    write_content.writeline(screen_content);//写入内容
   }
 
 
   write_content.dispose();
   write_content.close();
   messagebox.show(novel_name+".txt 创建成功!");
   system.diagnostics.process.start(directory.getcurrentdirectory() + \\novel\\);

三、小说写入成功

利用C#实现最基本的小说爬虫示例代码

利用C#实现最基本的小说爬虫示例代码

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对服务器之家的支持。

原文链接:http://www.cnblogs.com/xinyibufang/p/7615400.html

延伸 · 阅读

精彩推荐
  • C#如何使用C#将Tensorflow训练的.pb文件用在生产环境详解

    如何使用C#将Tensorflow训练的.pb文件用在生产环境详解

    这篇文章主要给大家介绍了关于如何使用C#将Tensorflow训练的.pb文件用在生产环境的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴...

    bbird201811792022-03-05
  • C#利用C#实现网络爬虫

    利用C#实现网络爬虫

    这篇文章主要介绍了利用C#实现网络爬虫,完整的介绍了C#实现网络爬虫详细过程,感兴趣的小伙伴们可以参考一下...

    C#教程网11852021-11-16
  • C#VS2012 程序打包部署图文详解

    VS2012 程序打包部署图文详解

    VS2012虽然没有集成打包工具,但它为我们提供了下载的端口,需要我们手动安装一个插件InstallShield。网上有很多第三方的打包工具,但为什么偏要使用微软...

    张信秀7712021-12-15
  • C#C#设计模式之Strategy策略模式解决007大破密码危机问题示例

    C#设计模式之Strategy策略模式解决007大破密码危机问题示例

    这篇文章主要介绍了C#设计模式之Strategy策略模式解决007大破密码危机问题,简单描述了策略模式的定义并结合加密解密算法实例分析了C#策略模式的具体使用...

    GhostRider10972022-01-21
  • C#SQLite在C#中的安装与操作技巧

    SQLite在C#中的安装与操作技巧

    SQLite,是一款轻型的数据库,用于本地的数据储存。其优点有很多,下面通过本文给大家介绍SQLite在C#中的安装与操作技巧,感兴趣的的朋友参考下吧...

    蓝曈魅11162022-01-20
  • C#三十分钟快速掌握C# 6.0知识点

    三十分钟快速掌握C# 6.0知识点

    这篇文章主要介绍了C# 6.0的相关知识点,文中介绍的非常详细,通过这篇文字可以让大家在三十分钟内快速的掌握C# 6.0,需要的朋友可以参考借鉴,下面来...

    雨夜潇湘8272021-12-28
  • C#C#微信公众号与订阅号接口开发示例代码

    C#微信公众号与订阅号接口开发示例代码

    这篇文章主要介绍了C#微信公众号与订阅号接口开发示例代码,结合实例形式简单分析了C#针对微信接口的调用与处理技巧,需要的朋友可以参考下...

    smartsmile20127762021-11-25
  • C#深入理解C#的数组

    深入理解C#的数组

    本篇文章主要介绍了C#的数组,数组是一种数据结构,详细的介绍了数组的声明和访问等,有兴趣的可以了解一下。...

    佳园9492021-12-10