亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python 50行爬蟲抓取并處理圖靈書目過程詳解

系統 1612 0

前言

使用 requests進行爬取、BeautifulSoup進行數據提取。

主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的數據情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便

以下是幾個典型HTML內容提取的Python代碼片段

1、提取詳情頁鏈接

列表頁中的詳情頁鏈接片段

提取詳情頁鏈接的Python代碼

            
# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情鏈接信息 in bs.select('.name'):
 # 提取出鏈接
 print(詳情鏈接信息.a.get('href'))
          

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML代碼

            

深度學習入門:基于Python的理論與實現

提取圖書名稱的Python代碼

            
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 
bs.h2.get_text().strip()
          

3、提取電子書價格信息

詳情頁中電子書價格HTML代碼

            
電子書
¥29.99

提取電子書價格的Python代碼

            
# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
 print(float(價格))
          

完整代碼

            
# ituring.py,python3版本,默認只抓兩頁,可以通過啟動參數控制要抓的列表頁范圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情鏈接(bs):
 # 找到頁面中所有的 
            

...

for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態").next_sibling 有定價 = bs.find("strong", text="定  價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('? 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('? 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('? 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ?? 改改代碼頁可以實現自動獲得最后一頁 # 獲取輸入參數; ??此處未對輸入參數的類型做檢測 if(len(sys.argv)==2): # 只有一個參數時,輸入的是終止頁碼,起始頁碼默認為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數時, 第一個參數是起始頁碼,第二個參數是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 国产免费久久精品99久久 | 国产成人a在一区线观看高清 | 福利午夜影院 | 国产精品大全国产精品 | 精品一本久久中文字幕 | 亚洲精品乱码一区二区在线观看 | 久久精品国产99久久72 | 色综合久久综合欧美综合网 | 国产成人免费手机在线观看视频 | 成人久久免费视频 | 香蕉视频毛片 | 一级爱爱片| 国产亚洲欧美精品久久久 | 99视频精品全部国产盗摄视频 | 亚洲va欧美va国产综合久久 | 色婷婷视频在线观看 | 久操视频免费在线观看 | 欧美激情在线免费观看 | 国产精品青草久久久久婷婷 | 蕾丝视频永久在线入口香蕉 | 日本三级带日本三级带黄首页 | 国产图片综合区 | 亚洲成人网在线观看 | 精产国品一二二区视 | 精品视频在线观看一区二区三区 | 亚洲视频在线播放 | 女孕学护士一级毛片 | 五月天婷婷亚洲 | 99久久国产综合精麻豆 | 亚洲欧美激情精品一区二区 | 天天看天天射 | 国产精品欧美日韩一区二区 | 色综合久久综合欧美综合图片 | 欧美一级精品高清在线观看 | 杨幂国产精品福利在线观看 | 婷婷精品进入 | 国产高清在线精品一区a | 男人天堂视频网 | 国产一级视频久久 | 久久影院中文字幕 | 亚洲综合在线成人一区 |