如何用Python爬虫获取那些价值博文
本篇文章的内容是如何用Python爬虫获取那些价值博文,现在分享给大家,有需要的朋友可以参考一下这篇文章地的内容
作者 CDA数据分析师
在CSDN上有很多精彩的技术博客文章,我们可以把它爬取下来,保存在本地磁盘,可以很方便以后阅读和学习,现在我们就用python编写一段爬虫代码,来实现这个目的。
我们想要做的事情:自动读取博客文章,记录标题,把心仪的文章保存到个人电脑硬盘里供以后学习参考。
过程大体分为以下几步:
1. 找到爬取的目标网址;
2. 分析网页,找到自已想要保存的信息,这里我们主要保存是博客的文章内容;
3. 清洗整理爬取下来的信息,保存在本地磁盘。
打开csdn的网页,作为一个示例,我们随机打开一个网页:
http://blog.csdn.net/u013088062/article/list/1。
可以看到,博主对《C++卷积神经网络》和其它有关机计算机方面的文章都写得不错。
爬虫代码按思路分为三个类(class),下面3个带“#”的分别给出了每一个类的开头(具体代码附后,供大家实际运行实现):
采用“类(class)”的方式属于Python的面向对象编程,在某些时候比我们通常使用的面向过程的编程方便,在大型工程中经常使用面向对象编程。对于初学者来说,面向对象编程不易掌握,但是经过学习习惯之后,会逐步慢慢从面向过程到面向对象编程过渡。
特别注意的是,RePage类主要用正则表达式处理从网页中获取的信息,正则表达式设置字符串样式如下:
用正则表达式去匹配所要爬取的内容,用Python和其它软件工具都可以实现。正则表达式有许多规则,各个软件使用起来大同小异。用好正则表达式是爬虫和文本挖掘的一个重要内容。
SaveText类则是把信息保存在本地,效果如下:
用python编写爬虫代码,简洁高效。这篇文章仅从爬虫最基本的用法做了讲解,有兴趣的朋友可以下载代码看看,希望大家从中有收获。
附相关Python代码:
1#-*-coding:utf-8-*-
2import re
3import urllib2
4import sys
5#目的:读取博客文章,记录标题,用htnl格式保存存文章内容
6#版本:python2.7.13
7#功能:读取网页内容
8class gethtmlpage():
9 #注意大小写
10 def __init__(self,strpage):
11 self.strpapge = strpage
12 #获取网页
13 def getpage(self):
14 req = urllib2.request(self.strpapge) # 建立页面请求
15 rep = req.add_header("user-agent","mozilla/5.0 (windows nt 6.1; wow64) applewebkit/537.36 (khtml, like gecko) chrome/38.0.2125.122 safari/537.36 se 2.x metasr 1.0")
16 try:
17 cn = urllib2.urlopen(req) #网页请求
18 page = cn.read() #读网页
19 upage = page.decode("utf-8") #网页编码
20 cn.close()
21 return upage
22 except urllib2.urlerror, e: #捕获异常
23 print 'urlerror:', e.code
24 return
25 except urllib2.httperror, e: #捕获异常
26 print 'http error:' + e.reason
27 return
28 return repage
29#正则表达式,获取想要的内容
30class repage():
31#正则表达式提取内容,返回链表
32 def getretext(self,page,recode):
33 repage = re.findall(recode,page,re.s)
34 return repage
35#保存文本
36class savetext():
37 def save(self,text,tilte):
38 try:
39 t="blog\"+tilte+".html"
40 f = file(t,"a")
41 f.write(text)
42 f.close()
43 except ioerror,e:
44 print e.message
45if __name__ == "__main__":
46 s = savetext()
47 #文件编码
48 #字符正确解码
49 reload(sys)
50 sys.setdefaultencoding( "utf-8" ) #获得系统的默认编码
51 #获取网页
52 page = gethtmlpage("http://blog.csdn.net/u013088062/article/list/1")
53 htmlpage = page.getpage()
54 #提取内容
55 reserver = repage()
56 reblog = reserver.getretext(htmlpage,r'.*?(s.+?)') #获取网址链接和标题
57 #再向下获取正文
58 for ref in reblog:
59 pageheard = "http://blog.csdn.net/" #加链接头
60 strpage = pageheard+ref[0]
61 tilte=ref[1].replace('[置顶]', "") #用替换的功能去除杂的英文
62 tilte=tilte.replace("","").lstrip().rstrip()
63 #获取正文
64 htmlpage = gethtmlpage(strpage)
65 htmlpagedata = htmlpage.getpage()
66 reblogtext = reserver.getretext(htmlpagedata,'
(.+?)
')
67 #保存文件
68 for s1 in reBlogText:
69 s1=''+s1
70 s.Save(s1,tilte)