亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python 50行爬蟲抓取并處理圖靈書目過程詳解

系統 1612 0

前言

使用 requests進行爬取、BeautifulSoup進行數據提取。

主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的數據情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便

以下是幾個典型HTML內容提取的Python代碼片段

1、提取詳情頁鏈接

列表頁中的詳情頁鏈接片段

提取詳情頁鏈接的Python代碼

            
# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情鏈接信息 in bs.select('.name'):
 # 提取出鏈接
 print(詳情鏈接信息.a.get('href'))
          

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML代碼

            

深度學習入門:基于Python的理論與實現

提取圖書名稱的Python代碼

            
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 
bs.h2.get_text().strip()
          

3、提取電子書價格信息

詳情頁中電子書價格HTML代碼

            
電子書
¥29.99

提取電子書價格的Python代碼

            
# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
 print(float(價格))
          

完整代碼

            
# ituring.py,python3版本,默認只抓兩頁,可以通過啟動參數控制要抓的列表頁范圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情鏈接(bs):
 # 找到頁面中所有的 
            

...

for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態").next_sibling 有定價 = bs.find("strong", text="定  價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('? 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('? 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('? 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ?? 改改代碼頁可以實現自動獲得最后一頁 # 獲取輸入參數; ??此處未對輸入參數的類型做檢測 if(len(sys.argv)==2): # 只有一個參數時,輸入的是終止頁碼,起始頁碼默認為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數時, 第一個參數是起始頁碼,第二個參數是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 亚洲欧美另类国产综合 | 精品国产福利在线 | 亚洲五月激情 | 中国女人内谢69xxxxx高清 | 久久 在线| 视频一区视频二区在线观看 | 农村苗族一级特黄a大片 | 一区二区国产精品 | 亚洲欧美精品中文字幕 | 国产一区二区三区久久 | 欧美一级视频在线观看欧美 | 国产欧美日韩网站 | 日本精a在线观看 | 伊人久久综合视频 | 欧美白人极品性喷潮 | 青青国产成人久久91网 | 国产欧美一区二区成人影院 | 中国欧美日韩一区二区三区 | 丁香婷婷综合网 | 久久久国产亚洲精品 | 九九视频九九热 | 国产麻豆精品hdvideoss | 亚洲视频色 | 久久98精品久久久久久婷婷 | 天天槽天天槽天天槽 | 欧美综合亚洲 | 国产一区精品在线 | 国内国产精品天干天干 | 毛片录像| 亚洲国产精品a在线 | 久久免费看片 | 免费视频 久久久 | 欧美午夜艳片欧美精品 | 国产成人性毛片aaww | 国产无卡一级毛片aaa | 日韩免费中文字幕 | 久久99精品视频 | 久久精品青草社区 | 欧美性爰视频 | 日韩欧美一中字暮 | 日韩午夜在线观看 |