亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python 50行爬蟲抓取并處理圖靈書目過程詳解

系統 1612 0

前言

使用 requests進行爬取、BeautifulSoup進行數據提取。

主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的數據情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便

以下是幾個典型HTML內容提取的Python代碼片段

1、提取詳情頁鏈接

列表頁中的詳情頁鏈接片段

提取詳情頁鏈接的Python代碼

            
# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情鏈接信息 in bs.select('.name'):
 # 提取出鏈接
 print(詳情鏈接信息.a.get('href'))
          

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML代碼

            

深度學習入門:基于Python的理論與實現

提取圖書名稱的Python代碼

            
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 
bs.h2.get_text().strip()
          

3、提取電子書價格信息

詳情頁中電子書價格HTML代碼

            
電子書
¥29.99

提取電子書價格的Python代碼

            
# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
 print(float(價格))
          

完整代碼

            
# ituring.py,python3版本,默認只抓兩頁,可以通過啟動參數控制要抓的列表頁范圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情鏈接(bs):
 # 找到頁面中所有的 
            

...

for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態").next_sibling 有定價 = bs.find("strong", text="定  價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('? 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('? 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('? 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ?? 改改代碼頁可以實現自動獲得最后一頁 # 獲取輸入參數; ??此處未對輸入參數的類型做檢測 if(len(sys.argv)==2): # 只有一個參數時,輸入的是終止頁碼,起始頁碼默認為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數時, 第一個參數是起始頁碼,第二個參數是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 在线a网站 | 精产国品一二二区视 | 玖玖在线精品 | 国产免费资源 | 亚洲伊人久久大香线蕉啊 | 男女69式互添在线观看 | 久久九九免费视频 | 国产天天操 | 九九热视频在线观看 | 在线欧美精品国产综合五月 | 热99re国产久热在线 | 在线观看男女爱视频网站 | 国产成人综合亚洲亚洲欧美 | 亚洲韩国日本一级二级r级 亚洲韩精品欧美一区二区三区 | 四虎国产精品免费观看 | 久久久久久天天夜夜天天 | 高清不卡日本v在线二区 | 台湾成人性视频免费播放 | 亚洲精品视频在线播放 | 羞羞网站免费观看 | 成人免费观看网欧美片 | 久久精品国产在热久久2019 | 中文字幕在线二区 | h片在线播放免费高清 | 国产伦一区二区三区四区久久 | 夜夜做日日做夜夜爽 | 国产高清一区二区 | 亚洲欧美日韩久久精品第一区 | 成人毛片免费网站 | 在线人成精品免费视频 | 美女在线视频观看影院免费天天看 | 国产一区二区不卡免费观在线 | 九九久久99 | 天然素人在线观看 | 夜色精品国产一区二区 | 变态 调教 视频 国产九色 | 成人欧美视频在线看免费 | 亚洲精品一区 | 欧美日韩性猛交xxxxx免费看 | 久久99精品久久只有精品 | 日韩精品国产自在欧美 |