項目需要程序能夠放在超算中心定時運行,于是針對scrapy寫了一個定時爬蟲的程序main.py ,直接放在scrapy的存儲代碼的目錄中就能設定時間定時多次執行。
最簡單的方法:直接使用Timer類
import time import os while True: os.system("scrapy crawl News") time.sleep(86400) #每隔一天運行一次 24*60*60=86400s或者,使用標準庫的sched模塊 import sched #初始化sched模塊的scheduler類 #第一個參數是一個可以返回時間戳的函數,第二個參數可以在定時未到達之前阻塞。 schedule = sched.scheduler ( time.time, time.sleep ) #被周期性調度觸發的函數 def func(): os.system("scrapy crawl News") def perform1(inc): schedule.enter(inc,0,perform1,(inc,)) func() # 需要周期執行的函數 def mymain(): schedule.enter(0,0,perform1,(86400,)) if __name__=="__main__": mymain() schedule.run() # 開始運行,直到計劃時間隊列變成空為止關于cmd的實現方法,本人在單次執行爬蟲程序時使用的是 cmdline.execute("scrapy crawl News".split())但可能因為cmdline是scrapy模塊中自帶的,所以定時執行時只能執行一次就退出了。
小伙伴有種方法是使用
import subprocess subprocess.Popen("scrapy crawl News")
她的程序運行正常可以定時多次執行,而我的卻直接退出了,改為
from subprocess import Popen subprocess.Popen("scrapy crawl News")
才正常,不知道為什么會這樣,如果有大神可以解釋原因還請指點。
反正
os.system、subprocess.Popen
都是pythoncmd的實現方法,可以根據需要選擇使用。
總結
以上所述是小編給大家介紹的python實現scrapy定時執行爬蟲,希望對大家有所幫助,如果大家有任何疑問歡迎給我留言,小編會及時回復大家的!
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
