婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python 用遞歸實現通用爬蟲解析器

python 用遞歸實現通用爬蟲解析器

熱門標簽:電話機器人貸款詐騙 佛山通用400電話申請 蘇州人工外呼系統軟件 看懂地圖標注方法 淮安呼叫中心外呼系統如何 打印谷歌地圖標注 電話外呼系統招商代理 京華圖書館地圖標注 廣東旅游地圖標注

我們在寫爬蟲的過程中,除了研究反爬之外,幾乎全部的時間都在寫解析邏輯。那么,生命苦短,為什么我們不寫一個通用解析器呢?對啊!為什么不呢?開整!

需求分析

爬蟲要解析的網頁類型無外乎 html、json 以及一些二進制文件(video、excel 文件等)。既然要做成通用解析器,我們有兩種實現方式,一種是將網頁內容轉換成統一的形式,然后用對應的解析規則去解析,比如全部將網頁內容轉換成 html 形式,然后用 xpath 去提取。

另外一種是配置文件預先告知的方式,你配置成什么類型,解析器就通過對應的解析規則去解析。

統一網頁形式,需要做大量的網頁內容形式轉換,而配置文件預先告知則需要在配置時指定更多解析字段。相比較而言,通過第二種方式,未來改變較多的是配置規則,不需要動核心代碼,引入 bug 的可能性較低。因此這里我們采用第二種方式實現解析器

進一步分析

解析器對于網頁內容的提取,本質上和我們在本地電腦上查找和整理文件,沒有什么差別。比如像下面這樣

解析內容就是從中提取我們想要的信息,然后整理成我們希望的格式。比如上面的內容,我們提取出來的形式應該是這樣

{
  "design": "設計圖.psd",
  "software": "sketch.dmg"
}

而在實際的爬蟲開發過程中,網頁形式遠比以上的復雜。其實遇到最多的問題是在一組列表中嵌套一個列表,我們需要把這種形式提取出來。比如像下面這種形式

{
    "a": "a",
    "b": [
        {"c": "c1", "d": "d1"},
        {"c": "c2", "d": "d2"}]
}

他提取出信息后應該是這樣

[
  {
    "a": "a",
    "c": "c1",
    "d": "d1"
  },
  {
    "a": "a",
    "c": "c2",
    "d": "d2"
  }
]

如果小伙伴對于算法熟悉的話,應該能察覺出這種遍歷用遞歸來寫是非常方便的。但要注意的是 python 會限定遞歸的層數,小伙伴可以通過下面這個方法查看遞歸限定的層數

import sys
print(sys.getrecursionlimit())

>>>1000

我這邊限定的層數是 1k。對于解析網頁來說完全夠用了,如果哪個人把網頁解析邏輯嵌套了 1000 層,我建議你直接跟老板提放棄這個網頁吧!

再進一步分析

我們已經知道對于通用解析來說,就是通過配置解析規則提取頁面的對應信息。而針對有列表層級的網頁可能還涉及遞歸遍歷問題。那如何去配置這種解析規則呢?其實很簡單,只需要在進入每一個層級之前先指定該層的數據形式,比如下面這個原數據

{
  "a": "a",
  "b": [
          {"c": "c1", "d": "d1"},
          {"c": "c2", "d" : "d2"}
       ]
}

想提取嵌套信息,我們的解析規則就應該是這樣的

[
 {
  "$name": "a",
  "$value_type": "raw",
  "$parse_method": "json",
  "$parse_rule": "a",
  "$each": []
 },
 {
  "$name": "__datas__",
  "$value_type": "recursion",
  "$parse_method": "json",
  "$parse_rule": "b",
  "$each": [
        {  
         "$name": "c",
          "$value_type": "raw",
         "$parse_method": "json",
         "$parse_rule": "c",
         "$each": []
        },
        {  
         "$name": "d",
          "$value_type": "raw",
         "$parse_method": "json",
         "$parse_rule": "d",
         "$each": []
        }
      ]
 }
]

其中 $name 字段表示我們最終希望最外層數據所擁有的字段名,當然如果是需要遞歸到內層的字段,則將列表保存為 __datas__ ,然后根據這個 __datas__ 進行內層結構的解析。最終我們得到的數據結構應該是這樣的

[
  {"a": "a", "c": "c1", "d": "d1"}, 
  {"a": "a", "c": "c2", "d": "d2"}
]

以上我們只演示了 json 的解析規則,如果要拿來解析 html 對象呢?很簡單,將解析方式改為 xpath 對象,然后傳入 xpath 解析語法即可。

代碼實現

總共分成兩部分,一部分根據原最終結果和規則進行打包,將所有涉及 recursion 邏輯的字段進行轉換,代碼如下

def _pack_json(result, rules):
        item = {}

        for p_rule in rules:

            if p_rule.get("$value_type") == "raw":
                if p_rule.get("$parse_method") == "json":
                    item[p_rule.get("$name")] = glom(result, p_rule.get("$parse_rule"))

            elif p_rule.get("$value_type") == "recursion":
                if p_rule.get("$parse_method") == "json":
                    tmp_result = glom(result, p_rule.get("$parse_rule"))
                    total_result = []
                    for per_r in tmp_result:
                        total_result.append(_pack_json(per_r, p_rule.get("$each")))
                    item[p_rule.get("$name")] = total_result
        return item

另外一部分將上一步得到的進行解析,將打包得到的結果進行解包,即將所有內嵌的數據提到最外層,代碼如下

def _unpack_datas(result: dict) -> list:
        if "__datas__" not in result:
            return [result]

        item_results = []
        all_item = result.pop("__datas__")

        for per_item in all_item:
            if "__datas__" in per_item:
                tmp_datas = per_item.pop("__datas__")
                for per_tmp_data in tmp_datas:
                    tmp_item = _unpack_datas(per_tmp_data)
                    for per_tmp_item in tmp_item:
                        item_results.append({**per_tmp_item, **per_item})
            else:
                item_results.append({**result, **per_item})

        return item_results

后再包一層執行入口就可以了,完整代碼如下

from loguru import logger

from glom import glom


def parse(result, rules):

    def _pack_json(result, rules):
        item = {}

        for p_rule in rules:

            if p_rule.get("$value_type") == "raw":
                if p_rule.get("$parse_method") == "json":
                    item[p_rule.get("$name")] = glom(result, p_rule.get("$parse_rule"))

            elif p_rule.get("$value_type") == "recursion":
                if p_rule.get("$parse_method") == "json":
                    tmp_result = glom(result, p_rule.get("$parse_rule"))
                    total_result = []
                    for per_r in tmp_result:
                        total_result.append(_pack_json(per_r, p_rule.get("$each")))
                    item[p_rule.get("$name")] = total_result
        return item

    def _unpack_datas(result: dict) -> list:
        if "__datas__" not in result:
            return [result]

        item_results = []
        all_item = result.pop("__datas__")

        for per_item in all_item:
            if "__datas__" in per_item:
                tmp_datas = per_item.pop("__datas__")
                for per_tmp_data in tmp_datas:
                    tmp_item = _unpack_datas(per_tmp_data)
                    for per_tmp_item in tmp_item:
                        item_results.append({**per_tmp_item, **per_item})
            else:
                item_results.append({**result, **per_item})

        return item_results

    pack_result = _pack_json(result, rules)
    logger.info(pack_result)
    return _unpack_datas(pack_result)

以上,就是通用解析器的完整案例。案例中僅實現了對于 json 的支持,小伙伴可以基于自己的項目,改造成其他的解析形式。通用解析其實是雞仔為了偷懶寫的,因為雞仔發現,在爬蟲開發中,大部分工作都耗在解析這部分。而有了通用解析的前端頁面,運營和數據分析師就可以根據自己的需要配置自己想爬取的站點了。人生苦短,你懂得。我去摸魚了~

實現方式請移步至 github 查看:https://github.com/hacksman/learn_lab/blob/master/small_bug_lab/general_parser.py

以上就是python 用遞歸實現通用爬蟲解析器的詳細內容,更多關于python 遞歸實現爬蟲解析器的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • Python爬蟲之爬取2020女團選秀數據
  • python爬蟲之教你如何爬取地理數據
  • Python爬蟲之教你利用Scrapy爬取圖片
  • 基于python分布式爬蟲并解決假死的問題
  • python PyQt5 爬蟲實現代碼
  • 用python爬蟲爬取CSDN博主信息
  • 利用Python網絡爬蟲爬取各大音樂評論的代碼
  • Python爬蟲部分開篇概念講解
  • python爬蟲之你好,李煥英電影票房數據分析

標簽:呼和浩特 衡水 江蘇 畢節 股票 湖州 駐馬店 中山

巨人網絡通訊聲明:本文標題《python 用遞歸實現通用爬蟲解析器》,本文關鍵詞  python,用,遞歸,實現,通用,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python 用遞歸實現通用爬蟲解析器》相關的同類信息!
  • 本頁收集關于python 用遞歸實現通用爬蟲解析器的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    精品日韩欧美在线| 国产亚洲精品bt天堂精选| 911精品国产一区二区在线| 中文字幕欧美日韩一区| 国产精品一区免费在线观看| 欧美日韩国产大片| 亚洲成人精品影院| 欧美精品tushy高清| 亚洲成av人**亚洲成av**| 色噜噜狠狠成人中文综合| 亚洲欧洲另类国产综合| 91丨九色丨黑人外教| 日韩理论片网站| 一本高清dvd不卡在线观看| 一区二区三区日韩欧美| 欧美剧情电影在线观看完整版免费励志电影 | 亚洲一级电影视频| 欧美日韩国产小视频在线观看| 婷婷国产v国产偷v亚洲高清| 日韩视频免费观看高清完整版在线观看| 免费在线观看日韩欧美| www国产成人免费观看视频 深夜成人网| 紧缚捆绑精品一区二区| 中文字幕欧美激情一区| 色美美综合视频| 丝袜亚洲精品中文字幕一区| 久久九九久久九九| 91久久精品网| 国内精品伊人久久久久av影院 | 一区二区三区精品视频| 欧美一级黄色片| 99久久精品99国产精品| 亚洲人精品午夜| 日韩一区二区影院| 99精品国产视频| 美女任你摸久久| 最好看的中文字幕久久| 日韩美女在线视频 | 久久久久国产精品免费免费搜索| 99久久精品久久久久久清纯| 日本最新不卡在线| 国产精品灌醉下药二区| 日韩一区二区精品| 91小视频在线| 国产精品99久久久久| 亚洲国产日日夜夜| 国产精品人成在线观看免费| 51精品秘密在线观看| 一本色道久久加勒比精品| 国产一区视频在线看| 亚洲成人黄色影院| 一片黄亚洲嫩模| 中文久久乱码一区二区| 精品卡一卡二卡三卡四在线| 欧美色综合久久| 色呦呦国产精品| 91网站在线播放| 成人av在线网站| 国产精品一区二区无线| 美美哒免费高清在线观看视频一区二区 | 亚洲美女视频在线观看| 国产农村妇女精品| 精品久久人人做人人爰| 日韩欧美在线影院| 欧美一三区三区四区免费在线看| 欧洲av在线精品| 在线观看亚洲精品| 欧美色倩网站大全免费| 欧美色偷偷大香| 67194成人在线观看| 欧美挠脚心视频网站| 欧美日本视频在线| 欧美一区二区私人影院日本| 欧美精品久久久久久久多人混战| 欧美老年两性高潮| 91精品久久久久久久91蜜桃| 欧美精品vⅰdeose4hd| 日韩一区二区三区视频在线观看| 日韩视频免费观看高清在线视频| 欧美变态口味重另类| 久久综合色8888| 国产精品情趣视频| 亚洲人一二三区| 岛国一区二区在线观看| 国产麻豆91精品| 成人h精品动漫一区二区三区| 成人激情电影免费在线观看| 99视频有精品| 欧美色电影在线| 91.麻豆视频| 久久网站热最新地址| 国产欧美一区二区精品婷婷| 综合分类小说区另类春色亚洲小说欧美| 综合久久久久久| 日本中文字幕一区二区视频 | 91官网在线免费观看| 欧美精品vⅰdeose4hd| 精品少妇一区二区三区视频免付费| 精品国产伦一区二区三区免费| 国产精品九色蝌蚪自拍| 亚洲成人三级小说| 成人综合在线视频| 在线播放日韩导航| 1000部国产精品成人观看| 日韩精品色哟哟| 99亚偷拍自图区亚洲| 日韩一区二区不卡| 有码一区二区三区| 国产69精品久久777的优势| 欧美三级一区二区| 中文字幕亚洲精品在线观看| 蜜桃视频第一区免费观看| 99久久久久久| 国产欧美精品在线观看| 欧美videofree性高清杂交| 亚洲国产成人高清精品| 欧美精品v国产精品v日韩精品 | 中文字幕视频一区| 精品无码三级在线观看视频| av一区二区三区| 欧美国产综合一区二区| 国产精品18久久久久| 欧美网站一区二区| 久久久精品国产免大香伊| 日本va欧美va精品| 狠狠色丁香久久婷婷综合丁香| 国产精品69毛片高清亚洲| 色偷偷久久一区二区三区| 欧美一区二区三区免费在线看| 久久久亚洲综合| 久久久久久麻豆| 日本不卡视频一二三区| 国产精品一区在线观看乱码| 欧美videossexotv100| 亚洲欧美日韩国产另类专区| 毛片一区二区三区| 欧美影院一区二区三区| 国产天堂亚洲国产碰碰| 国产剧情一区二区三区| 欧美日韩国产经典色站一区二区三区| 久久亚洲免费视频| 日韩**一区毛片| 欧美日韩中文字幕精品| 亚洲一本大道在线| 色综合欧美在线视频区| 久久嫩草精品久久久久| 日韩精品福利网| 韩国成人福利片在线播放| 久久尤物电影视频在线观看| 亚洲午夜影视影院在线观看| 99久久免费精品高清特色大片| 国产欧美日韩视频在线观看| 亚洲一区二区三区在线播放| 在线观看不卡视频| 国产精品国产三级国产普通话蜜臀| 国内久久精品视频| 精品剧情在线观看| 亚洲欧美综合网| 在线影院国内精品| 亚洲视频中文字幕| 91在线一区二区三区| 日本一区二区久久| 在线免费观看视频一区| 一区二区三区国产精华| 91偷拍与自偷拍精品| 国产精品网站一区| 激情欧美一区二区| 一区二区三区高清在线| 在线观看精品一区| 亚洲va欧美va国产va天堂影院| 欧亚一区二区三区| 国产一区二区成人久久免费影院| 亚洲精品一区二区在线观看| 国产美女久久久久| 欧美高清在线一区| 国产成人精品网址| 亚洲视频中文字幕| 欧美中文字幕亚洲一区二区va在线| 国产精品国产三级国产普通话蜜臀| 激情六月婷婷综合| 亚洲午夜私人影院| 日韩视频永久免费| 成人激情图片网| 亚洲一区二区三区在线看| 中文字幕av一区二区三区免费看| 国产在线视频一区二区三区| 欧美mv日韩mv国产网站app| 成人午夜视频网站| 亚洲精品视频免费看| 717成人午夜免费福利电影| 性久久久久久久久久久久| 欧美一区二区三区白人| 懂色一区二区三区免费观看| 成人免费小视频| 在线91免费看| 久久精品国产亚洲aⅴ| 亚洲不卡在线观看| 亚洲国产精品影院| 欧美成人三级在线| 日韩一区二区三区视频|