亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python 50行爬蟲抓取并處理圖靈書目過程詳解

系統 1612 0

前言

使用 requests進行爬取、BeautifulSoup進行數據提取。

主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的數據情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便

以下是幾個典型HTML內容提取的Python代碼片段

1、提取詳情頁鏈接

列表頁中的詳情頁鏈接片段

提取詳情頁鏈接的Python代碼

            
# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情鏈接信息 in bs.select('.name'):
 # 提取出鏈接
 print(詳情鏈接信息.a.get('href'))
          

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML代碼

            

深度學習入門:基于Python的理論與實現

提取圖書名稱的Python代碼

            
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 
bs.h2.get_text().strip()
          

3、提取電子書價格信息

詳情頁中電子書價格HTML代碼

            
電子書
¥29.99

提取電子書價格的Python代碼

            
# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
 print(float(價格))
          

完整代碼

            
# ituring.py,python3版本,默認只抓兩頁,可以通過啟動參數控制要抓的列表頁范圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情鏈接(bs):
 # 找到頁面中所有的 
            

...

for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態").next_sibling 有定價 = bs.find("strong", text="定  價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('? 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('? 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('? 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ?? 改改代碼頁可以實現自動獲得最后一頁 # 獲取輸入參數; ??此處未對輸入參數的類型做檢測 if(len(sys.argv)==2): # 只有一個參數時,輸入的是終止頁碼,起始頁碼默認為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數時, 第一個參數是起始頁碼,第二個參數是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 亚洲qingse中文字幕久久 | 80岁老妇xxxxx高清 | 久久久久久97 | 久久欧美久久欧美精品 | 5566中文字幕亚洲精品 | 国产一区二区不卡视频 | 99精品久久99久久久久久 | 最新亚洲精品国自产在线观看 | 欧美韩国日本一区 | 欧美体内she精视频毛片 | 亚洲成人在线免费视频 | 欧美乱理伦另类视频 | 精品国产一区二区三区四区不 | 久草视频播放器 | 在线中文字幕视频 | 国产精品中文字幕在线观看 | 手机福利在线观看 | 精品国产_亚洲人成在线高清 | 亚洲日本综合 | 欧美高清在线精品一区二区不卡 | 欧美一级高清在线观看 | 老子午夜伦不卡影院 | 国产成人在线免费 | 欧美一级毛片高清免费观看 | 久久99亚洲精品久久久久网站 | 午夜精品九九九九99蜜桃 | 国产一区二区免费福利片 | 日韩精品在线一区 | 四虎中文| 99热首页| 久久大香香蕉国产免费网vrr | 看真人一级毛多毛片 | 久久频 | 一区二区不卡久久精品 | 日本三级11k影院在线 | 日韩免费高清一级毛片在线 | 一区中文字幕 | 国产精品午夜久久 | 久久久精品久久视频只有精品 | 毛茸茸的浓密在线视频 | 色大18成网站www在线观看 |