婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 用Python自動下載網站所有文件

用Python自動下載網站所有文件

熱門標簽:地圖標注推廣單頁 百應ai電銷機器人鄭州 n400電話申請多少錢 長春人工智能電銷機器人官網 如何在地圖標注文字 女王谷地圖標注 廈門crm外呼系統如何 ai地圖標注 西藏快速地圖標注地點

最近維基 jie mi 徹底公開了網站的全部文件,我就在想如何使用 Python 將其下載到本地永久保存,于是就有了這篇文章,寫爬蟲會遇到很多坑,借鑒他人經驗,考慮越全面,出錯的概率就越小。

假如一個網站,里面有很多鏈接,有指向文件的,有指向新鏈接的,新的鏈接點擊進去后,仍然是有指向文件的,有指向新鏈接的,類似一個文件夾,里面即有文件,又有目錄,目錄中又有文件和目錄。如何從這樣的網站上下載所有的文件,并按網站的目錄結構來保存這些文件呢?

關鍵詞:Python、下載、正則表達式、遞歸。

按照自頂向下來設計程序,我們整理自己的思路,然后使用 Python 語言來翻譯下即可。

思路:由于目錄的深度不固定,也不可能窮舉,且每一個目錄的處理方式和子目錄父目錄的處理流程都是一樣的,因此我們可以使用遞歸來下載所有文件。

遞歸代碼必須要有退出條件,退出條件要放在前面,本例中的遞歸退出條件就是:如果是文件就下載,下載完遞歸函數即完成任務。

總體思路:

1、給定一個 url,判斷是否是文件,如果是文件,下載即可,然后函數結束。

2、如果給定 url 不是文件,那么訪問該 url,并獲取它下面的所有鏈接。

3、遍歷步驟 2 產生的所有鏈接,遞歸的執行步驟 1 和 2,直到程序運行結束。

以上思路,用代碼描述如下:

import urllib.request
import requests
import re, os


def get_file(url):
 '''
 遞歸下載網站的文件
 :param url:
 :return:
 '''
 if isFile(url):
  print(url)
  try:
   download(url)
  except:
   pass
 else:
  urls = get_url(url)
  for u in urls:
   get_file(u)

前面導入的包在接下來函數中會用到,下面就是逐漸層向下,實現子功能。

判斷鏈接是否指向文件:

這里總結 url 規律,很容易寫出。

def isFile(url):
 '''
 判斷一個鏈接是否是文件
 :param url:
 :return:
 '''
 if url.endswith('/'):
  return False
 else:
  return True

下載文件:

下載文件時要從 url 中獲取文件應該存儲的位置,并使用 os.makedirs 來創建多級目錄。然后使用 urllib.request.urlretrieve 來下載文件。

def download(url):
 '''
 :param url:文件鏈接
 :return: 下載文件,自動創建目錄
 '''
 full_name = url.split('//')[-1]
 filename = full_name.split('/')[-1]
 dirname = "/".join(full_name.split('/')[:-1])
 if os.path.exists(dirname):
  pass
 else:
  os.makedirs(dirname, exist_ok=True)
 urllib.request.urlretrieve(url, full_name)

獲取 url 下的所有鏈接:

這里要具體網站具體分析,看看如何使用正則表達式獲取網頁中的鏈接,這樣的正則表達式可以說是再簡單不過了。

def get_url(base_url):
 '''
 :param base_url:給定一個網址
 :return: 獲取給定網址中的所有鏈接
 '''
 text = ''
 try:
  text = requests.get(base_url).text
 except Exception as e:
  print("error - > ",base_url,e)
  pass
 reg = 'a href="(.*)" rel="external nofollow" >.*/a>'
 urls = [base_url + url for url in re.findall(reg, text) if url != '../']
 return urls

這里有個小坑,就是網站有個鏈接是返回上級頁面的,url 的后輟是 '../' 這樣的鏈接要去掉,否則遞歸函數就限入了死循環。

接下來就是寫主函數,執行任務了,慢慢等它下載完吧。

if __name__ == '__main__':
 get_file('https://file.wikileaks.org/file/')

其實,還會存兩個問題:

1、假如網站某頁有個鏈接它指向了首頁,那么遞歸程序仍然會限入一個死循環,解決方法就是將訪問過的 url 保存在一個列表里(或者其他數據結構),如果接下來要訪問的 url 不在此列表中,那么就訪問,否則就忽略。

2、如果下載的過程中程序突然報錯退出了,由于下載文件較慢,為了節約時間,那么如何讓程序從報錯處繼續運行呢?這里可采用分層遞歸,一開始時先獲取網站的所有一級 url 鏈接,順序遍歷這些一級 url 鏈接,執行上述的 get_file(url) ,每訪問一次一級 url 就將其索引位置加1(索引位置默認為0,存儲在文件中或數據庫中),程序中斷后再運行時先讀取索引,然后從索引處開始執行即可。另外,每下載成功一個文件,就把對應的 url 也保存在文件中或數據庫中,如果一級 url 下的鏈接已經下載過文件,那么就不需要重新下載了。

以上就是用Python自動下載網站所有文件的詳細內容,更多關于python 自動下載網站文件的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • 詳解Python自動化之文件自動化處理
  • Python自動化之批量處理工作簿和工作表
  • Python自動掃描出微信不是好友名單的方法
  • python自動化之如何利用allure生成測試報告
  • 用python自動生成日歷
  • 用Python寫腳本自動評論再也不怕碰到噴子

標簽:拉薩 興安盟 綿陽 亳州 內江 廊坊 渭南 黔東

巨人網絡通訊聲明:本文標題《用Python自動下載網站所有文件》,本文關鍵詞  用,Python,自動,下載網站,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《用Python自動下載網站所有文件》相關的同類信息!
  • 本頁收集關于用Python自動下載網站所有文件的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 喀喇沁旗| 河南省| 汉川市| 奈曼旗| 新竹县| 铜山县| 万山特区| 开江县| 手机| 弋阳县| 鄂尔多斯市| 红安县| 永济市| 德惠市| 淅川县| 西盟| 贵溪市| 德钦县| 延边| 乃东县| 乌鲁木齐市| 霍邱县| 洪泽县| 望奎县| 黑河市| 灵山县| 蓬安县| 德惠市| 凯里市| 辽源市| 社旗县| 榕江县| 浦江县| 汪清县| 明光市| 闵行区| 金山区| 屯门区| 仪陇县| 三门县| 裕民县|