亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

利用python批量檢查網站的可用性

系統 1578 0

前言

隨著站點的增多,管理復雜性也上來了,俗話說:人多了不好帶,我發現站點多了也不好管,因為這些站點里有重要的也有不重要的,重要核心的站點當然就管理的多一些,像一些萬年都不出一次問題的,慢慢就被自己都淡忘了,冷不丁那天出個問題,還的手忙腳亂的去緊急處理,所以規范的去管理這些站點是很有必要的,今天我們就做第一步,不管大站小站,先統一把監控做起來,先不說業務情況,最起碼那個站點不能訪問了,要第一時間報出來,別等著業務方給你反饋,就顯得我們不夠專業了,那接下來我們看看如果用python實現多網站的可用性監控,腳本如下:

            
#!/usr/bin/env python
 
 
import pickle, os, sys, logging
from httplib import HTTPConnection, socket
from smtplib import SMTP
 
def email_alert(message, status):
 fromaddr = 'xxx@163.com'
 toaddrs = 'xxxx@qq.com'
 
 server = SMTP('smtp.163.com:25')
 server.starttls()
 server.login('xxxxx', 'xxxx')
 server.sendmail(fromaddr, toaddrs, 'Subject: %s\r\n%s' % (status, message))
 server.quit()
 
def get_site_status(url):
 response = get_response(url)
 try:
  if getattr(response, 'status') == 200:
   return 'up'
 except AttributeError:
  pass
 return 'down'
  
def get_response(url):
 try:
  conn = HTTPConnection(url)
  conn.request('HEAD', '/')
  return conn.getresponse()
 except socket.error:
  return None
 except:
  logging.error('Bad URL:', url)
  exit(1)
  
def get_headers(url):
 response = get_response(url)
 try:
  return getattr(response, 'getheaders')()
 except AttributeError:
  return 'Headers unavailable'
 
def compare_site_status(prev_results):
 
 def is_status_changed(url):
  status = get_site_status(url)
  friendly_status = '%s is %s' % (url, status)
  print friendly_status
  if url in prev_results and prev_results[url] != status:
   logging.warning(status)
   email_alert(str(get_headers(url)), friendly_status)
  prev_results[url] = status
 
 return is_status_changed
 
def is_internet_reachable():
 if get_site_status('www.baidu.com') == 'down' and get_site_status('www.sohu.com') == 'down':
  return False
 return True
 
def load_old_results(file_path):
 pickledata = {}
 if os.path.isfile(file_path):
  picklefile = open(file_path, 'rb')
  pickledata = pickle.load(picklefile)
  picklefile.close()
 return pickledata
 
def store_results(file_path, data):
 output = open(file_path, 'wb')
 pickle.dump(data, output)
 output.close()
 
def main(urls):
 logging.basicConfig(level=logging.WARNING, filename='checksites.log', 
   format='%(asctime)s %(levelname)s: %(message)s', 
   datefmt='%Y-%m-%d %H:%M:%S')
 
 pickle_file = 'data.pkl'
 pickledata = load_old_results(pickle_file)
 print pickledata
  
 if is_internet_reachable():
  status_checker = compare_site_status(pickledata)
  map(status_checker, urls)
 else:
  logging.error('Either the world ended or we are not connected to the net.')
  
 store_results(pickle_file, pickledata)
 
if __name__ == '__main__':
 main(sys.argv[1:])
          

腳本核心點解釋:

1、 getattr() 是python的內置函數,接收一個對象,可以根據對象屬性返回對象的值。

2、 compare_site_status() 函數是返回的是一個內部定義的函數。

3、 map() ,需要2個參數,一個是函數,一個是序列,功能就是將序列中的每個元素應用函數方法。

總結

以上就是這篇文章的全部內容,有需要的朋友們可以參考借鑒。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 精品香蕉一区二区三区 | 农村妇女高清毛片一级 | 2020国产成人精品免费视频 | 在线a毛片免费视频观看 | 91啪国自产在线高清观看 | 特级无码a级毛片特黄 | 久久99热久久精品23 | 亚洲韩精品欧美一区二区三区 | 日日摸夜夜添夜夜添毛片 | 青青热在线精品视频免费 | 久久9热 | 狠狠色噜狠狠狠狠色综合久 | 国产精品网站 夜色 | 一及 片日本 | 久久精品综合一区二区三区 | 天天操天天摸天天射 | 日日夜夜骑 | 亚洲日本高清成人aⅴ片 | 成人性色生活影片 | 国产亚洲欧洲国产综合一区 | 福利视频免费 | 亚洲aa| 成人在线视频一区 | 香蕉网站在线 | 欧洲亚洲一区二区三区 | 久久成人网18网站 | 久久久久综合精品福利啪啪 | 成人免费久久精品国产片久久影院 | 亚洲综合专区 | 日韩在线视频在线 | 国产三级做爰高清视频a | 日韩免费高清一级毛片久久 | 一级片在线观看视频 | 欧美理论片大全在线观看 | 中文字幕综合 | 国产成人亚洲精品乱码在线观看 | 国产精品免费观看视频 | 精品无人区乱码一区二区 | 日韩欧美亚洲国产高清在线 | 在线精品视频成人网 | 国产一区在线播放 |