看知乎的時候發(fā)現(xiàn)了一個 “如何正確地吐槽” 收藏夾,里面的一些神回復實在很搞笑,但是一頁一頁地看又有點麻煩,而且每次都要打開網(wǎng)頁,于是想如果全部爬下來到一個文件里面,是不是看起來很爽,并且隨時可以看到全部的,于是就開始動手了。
工具
1.Python 2.7
2.BeautifulSoup
分析網(wǎng)頁
我們先來看看知乎上該網(wǎng)頁的情況
網(wǎng)址:
,容易看到,網(wǎng)址是有規(guī)律的,page慢慢遞增,這樣就能夠?qū)崿F(xiàn)全部爬取了。
再來看一下我們要爬取的內(nèi)容:
我們要爬取兩個內(nèi)容:問題和回答,回答僅限于顯示了全部內(nèi)容的回答,如下面這種就不能爬取,因為好像無法展開(反正我不會。。),再說答案不全的話爬來也沒用,所以就不爬答案不全的了吧。
好,那么下面我們要找到他們在網(wǎng)頁源代碼中的位置:
中,那么我們等會就可以在這個標簽里面找問題。
然后是回復:
有兩個地方都有回復的內(nèi)容,因為上面那個的內(nèi)容還包括了
等一些內(nèi)容,不方便處理,我們爬下面那個的內(nèi)容,因為那個里面的內(nèi)容純正無污染。
代碼
好,這時候我們試著寫出python代碼:
復制代碼
代碼如下:
# -*- coding: cp936 -*-
import urllib2
from BeautifulSoup import BeautifulSoup
f = open('howtoTucao.txt','w')???? #打開文件
for pagenum in range(1,21):??????? #從第1頁爬到第20頁
??? strpagenum = str(pagenum)????? #頁數(shù)的str表示
??? print "Getting data for Page " + strpagenum?? #shell里面顯示的,表示已爬到多少頁
??? url = "http://www.zhihu.com/collection/27109279?page="+strpagenum? #網(wǎng)址
??? page = urllib2.urlopen(url)???? #打開網(wǎng)頁
??? soup = BeautifulSoup(page)????? #用BeautifulSoup解析網(wǎng)頁
???
??? #找到具有class屬性為下面兩個的所有Tag
??? ALL = soup.findAll(attrs = {'class' : ['zm-item-title','zh-summary summary clearfix'] })
??? for each in ALL :?????????????? #枚舉所有的問題和回答
??????? #print type(each.string)
??????? #print each.name
??????? if each.name == 'h2' :????? #如果Tag為h2類型,說明是問題
??????????? print each.a.string???? #問題中還有一個
,所以要each.a.string取出內(nèi)容
??????????? if each.a.string:?????? #如果非空,才能寫入
??????????????? f.write(each.a.string)
??????????? else :????????????????? #否則寫"No Answer"
??????????????? f.write("No Answer")
??????? else :????????????????????? #如果是回答,同樣寫入
??????????? print each.string
??????????? if each.string:
??????????????? f.write(each.string)
??????????? else :
??????????????? f.write("No Answer")
f.close()?????????????????????????? #關閉文件
代碼雖然不常,可是寫了我半天,開始各種出問題。
運行
然后我們運行就可以爬了:
等運行完畢,我們打開文件howtoTucao.txt,可以看到,這樣就爬取成功了。只是格式可能還是有點問題,原來是我No Answer沒加換行,所以No Answer還會混到文本里面去,加兩個換行就可以了。
代碼
好,這時候我們試著寫出python代碼:
# -*- coding: cp936 -*-
import urllib2
from BeautifulSoup import BeautifulSoup
f = open('howtoTucao.txt','w')???? #打開文件
for pagenum in range(1,21):??????? #從第1頁爬到第20頁
??? strpagenum = str(pagenum)????? #頁數(shù)的str表示
??? print "Getting data for Page " + strpagenum?? #shell里面顯示的,表示已爬到多少頁
??? url = "http://www.zhihu.com/collection/27109279?page="+strpagenum? #網(wǎng)址
??? page = urllib2.urlopen(url)???? #打開網(wǎng)頁
??? soup = BeautifulSoup(page)????? #用BeautifulSoup解析網(wǎng)頁
???
??? #找到具有class屬性為下面兩個的所有Tag
??? ALL = soup.findAll(attrs = {'class' : ['zm-item-title','zh-summary summary clearfix'] })
??? for each in ALL :?????????????? #枚舉所有的問題和回答
??????? #print type(each.string)
??????? #print each.name
??????? if each.name == 'h2' :????? #如果Tag為h2類型,說明是問題
??????????? print each.a.string???? #問題中還有一個
??????????? if each.a.string:?????? #如果非空,才能寫入
??????????????? f.write(each.a.string)
??????????? else :????????????????? #否則寫"No Answer"
??????????????? f.write("No Answer")
??????? else :????????????????????? #如果是回答,同樣寫入
??????????? print each.string
??????????? if each.string:
??????????????? f.write(each.string)
??????????? else :
??????????????? f.write("No Answer")
f.close()?????????????????????????? #關閉文件
代碼雖然不常,可是寫了我半天,開始各種出問題。
運行
然后我們運行就可以爬了:
等運行完畢,我們打開文件howtoTucao.txt,可以看到,這樣就爬取成功了。只是格式可能還是有點問題,原來是我No Answer沒加換行,所以No Answer還會混到文本里面去,加兩個換行就可以了。
更多文章、技術交流、商務合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
