婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python爬蟲之線程池的使用

Python爬蟲之線程池的使用

熱門標簽:公司電話機器人 唐山智能外呼系統一般多少錢 激戰2地圖標注 哈爾濱ai外呼系統定制 廣告地圖標注app 騰訊外呼線路 白銀外呼系統 陜西金融外呼系統 海南400電話如何申請

一、前言

學到現在,我們可以說已經學習了爬蟲的基礎知識,如果沒有那些奇奇怪怪的反爬蟲機制,基本上只要有時間分析,一般的數據都是可以爬取的,那么到了這個時候我們需要考慮的就是爬取的效率了,關于提高爬蟲效率,也就是實現異步爬蟲,我們可以考慮以下兩種方式:一是線程池的使用(也就是實現單進程下的多線程),一是協程的使用(如果沒有記錯,我所使用的協程模塊是從python3.4以后引入的,我寫博客時使用的python版本是3.9)。

今天我們先來講講線程池。

二、同步代碼演示

我們先用普通的同步的形式寫一段代碼

import time

def func(url):
    print("正在下載:", url)
    time.sleep(2)
    print("下載完成:", url)

if __name__ == '__main__':
    start = time.time() # 開始時間

    url_list = [
        "a", "b", "c"
    ]

    for url in url_list:
        func(url)

    end = time.time() # 結束時間

    print(end - start)

對于代碼運行的結果我們心里都有數,但還是讓我們來看一下吧

不出所料。運行時間果然是六秒

三、異步,線程池代碼

那么如果我們使用線程池運行上述代碼又會怎樣呢?

import time
from multiprocessing import Pool

def func(url):
    print("正在下載:", url)
    time.sleep(2)
    print("下載完成:", url)

if __name__ == '__main__':
    start = time.time() # 開始時間

    url_list = [
        "a", "b", "c"
    ]

    pool = Pool(len(url_list)) # 實例化一個線程池對象,并且設定線程池的上限數量為列表長度。不設置上限也可以。

    pool.map(func, url_list)

    end = time.time() # 結束時間

    print(end - start)

下面就是見證奇跡的時候了,讓我們運行程序

我們發現這次我們的運行時間只用2~3秒。其實我們可以將線程池簡單的理解為將多個任務同時進行。

注意:

1.我使用的是 pycharm,如果使用的是 VS 或者說是 python 自帶的 idle,在運行時我們只能看到最后時間的輸出。

2.我們輸出結果可能并不是按 abc 的順序輸出的。

四、同步爬蟲爬取圖片

因為我們的重點是線程池的爬取效率提高,我們就簡單的爬取一頁的圖片。

import requests
import time
import os
from lxml import etree

def save_photo(url, title):
    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 發送請求
    photo = requests.get(url=url, headers=header).content

    # 創建路徑,避免重復下載
    if not os.path.exists("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\同步爬蟲爬取4K美女圖片\\" + title + ".jpg"):
        with open("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\同步爬蟲爬取4K美女圖片\\" + title + ".jpg", "wb") as fp:
            print(title, "開始下載!!!")
            fp.write(photo)
            print(title, "下載完成!!!")

if __name__ == '__main__':
    start = time.time()

    # 創建文件夾
    if not os.path.exists("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\同步爬蟲爬取4K美女圖片"):
        os.mkdir("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\同步爬蟲爬取4K美女圖片")

    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 指定url
    url = "https://pic.netbian.com/4kmeinv/"

    # 發送請求,獲取源碼
    page = requests.get(url = url, headers = header).text

    # xpath 解析,獲取圖片的下載地址的列表
    tree = etree.HTML(page)
    url_list = tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href')
    # 通過下載地址獲取高清圖片的地址和圖片名稱
    for href in url_list:
        new_url = "https://pic.netbian.com" + href
        # 再一次發送請求
        page = requests.get(url = new_url, headers = header).text
        # 再一次 xpath 解析
        new_tree = etree.HTML(page)
        src = "https://pic.netbian.com" + new_tree.xpath('//*[@id="img"]/img/@src')[0]
        title = new_tree.xpath('//*[@id="img"]/img/@title')[0].split(" ")[0]
        # 編譯文字
        title = title.encode("iso-8859-1").decode("gbk")
        # 下載,保存
        save_photo(src, title)

    end = time.time()
    print(end - start)

讓我們看看同步爬蟲需要多長時間

然后再讓我們看看使用線程池的異步爬蟲爬取這些圖片需要多久

五、使用線程池的異步爬蟲爬取4K美女圖片

import requests
import time
import os
from lxml import etree
from multiprocessing import Pool

def save_photo(src_title):
    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 發送請求
    url = src_title[0]
    title = src_title[1]
    photo = requests.get(url=url, headers=header).content

    # 創建路徑,避免重復下載
    if not os.path.exists("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\異步爬蟲爬取4K美女圖片\\" + title + ".jpg"):
        with open("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\異步爬蟲爬取4K美女圖片\\" + title + ".jpg", "wb") as fp:
            print(title, "開始下載!!!")
            fp.write(photo)
            print(title, "下載完成!!!")

if __name__ == '__main__':
    start = time.time()

    # 創建文件夾
    if not os.path.exists("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\異步爬蟲爬取4K美女圖片"):
        os.mkdir("C:\\Users\\ASUS\\Desktop\\CSDN\\高性能異步爬蟲\\線程池\\異步爬蟲爬取4K美女圖片")

    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 指定url
    url = "https://pic.netbian.com/4kmeinv/"

    # 發送請求,獲取源碼
    page = requests.get(url = url, headers = header).text

    # xpath 解析,獲取圖片的下載地址的列表
    tree = etree.HTML(page)
    url_list = tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href')
    # 存儲最后的網址和標題的列表
    src_list = []
    title_list = []
    # 通過下載地址獲取高清圖片的地址和圖片名稱
    for href in url_list:
        new_url = "https://pic.netbian.com" + href
        # 再一次發送請求
        page = requests.get(url = new_url, headers = header).text
        # 再一次 xpath 解析
        new_tree = etree.HTML(page)
        src = "https://pic.netbian.com" + new_tree.xpath('//*[@id="img"]/img/@src')[0]
        src_list.append(src)
        title = new_tree.xpath('//*[@id="img"]/img/@title')[0].split(" ")[0]
        # 編譯文字
        title = title.encode("iso-8859-1").decode("gbk")
        title_list.append(title)

    # 下載,保存。使用線程池
    pool = Pool()
    src_title = zip(src_list, title_list)
    pool.map(save_photo, list(src_title))

    end = time.time()
    print(end - start)

讓我們來看看運行的結果

只用了 17 秒,可不要小瞧這幾秒,如果數據太大,這些差距后來就會更大了。

注意

不過我們必須要明白 線程池 是有上限的,這就是說數據太大,線程池的效率也會降低,所以這就要用到協程模塊了。

到此這篇關于Python爬蟲之線程池的使用的文章就介紹到這了,更多相關Python線程池的使用內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python 線程池模塊之多線程操作代碼
  • python線程池的四種好處總結
  • python爬蟲線程池案例詳解(梨視頻短視頻爬取)
  • python線程池 ThreadPoolExecutor 的用法示例
  • 實例代碼講解Python 線程池
  • Python 如何創建一個線程池
  • python線程池如何使用
  • 解決python ThreadPoolExecutor 線程池中的異常捕獲問題
  • Python定時器線程池原理詳解
  • Python 使用threading+Queue實現線程池示例
  • Python線程池的正確使用方法

標簽:黔西 黑龍江 鷹潭 上海 惠州 益陽 四川 常德

巨人網絡通訊聲明:本文標題《Python爬蟲之線程池的使用》,本文關鍵詞  Python,爬蟲,之,線程,池,的,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python爬蟲之線程池的使用》相關的同類信息!
  • 本頁收集關于Python爬蟲之線程池的使用的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    国产精品久久久久一区二区三区共 | 开心九九激情九九欧美日韩精美视频电影| 欧美日韩国产一级| 国产精品亚洲第一| 日韩av一级电影| 亚洲综合激情另类小说区| 国产精品午夜在线观看| 精品乱人伦一区二区三区| 91精品免费在线| 欧美精品第1页| 日本韩国一区二区三区视频| 成人精品在线视频观看| 国产激情一区二区三区四区| 精品一区二区综合| 国产一区二区三区四区五区美女| 青青草原综合久久大伊人精品优势| 一区二区三区蜜桃网| 国产精品视频线看| 亚洲国产精品99久久久久久久久| 久久久久国产成人精品亚洲午夜 | 日韩国产一二三区| 性做久久久久久久免费看| 一区二区三区高清| 亚洲欧美色图小说| 亚洲综合色丁香婷婷六月图片| 亚洲欧美中日韩| 日韩美女啊v在线免费观看| 一区二区三区四区视频精品免费| 亚洲精品成人少妇| 亚洲国产精品久久一线不卡| 午夜天堂影视香蕉久久| 日本成人中文字幕| 国产精品一区二区视频| 成人app在线观看| 色哦色哦哦色天天综合| 在线一区二区视频| 欧美日韩aaaaa| 亚洲国产精品久久久男人的天堂| 一区二区三区在线视频观看| 日精品一区二区| 裸体健美xxxx欧美裸体表演| 精品一区二区三区免费播放 | 国产一区二区三区| 91一区一区三区| 8x8x8国产精品| 国产欧美视频一区二区| 亚洲精品国产一区二区精华液| 亚洲大片精品永久免费| 美国欧美日韩国产在线播放 | 欧美精品vⅰdeose4hd| 久久久久久影视| 亚洲女人****多毛耸耸8| 日韩精品一二三| voyeur盗摄精品| 91精品国产综合久久精品性色| 欧美激情一区二区三区| 亚洲最大成人网4388xx| 国产精品中文字幕一区二区三区| 色综合久久久久久久久| 日韩精品一区二区三区三区免费| 国产精品久久久久一区二区三区 | 成人免费在线视频观看| 视频一区二区不卡| 国v精品久久久网| 精品视频一区二区三区免费| 日本一区二区在线不卡| 欧美a一区二区| 在线观看亚洲专区| 欧美韩日一区二区三区四区| 日韩激情视频在线观看| 91麻豆精品在线观看| 精品国产免费久久| 亚洲国产日韩a在线播放性色| 懂色av一区二区三区蜜臀| 欧美日韩精品系列| 亚洲三级在线免费| 成人精品免费看| 久久美女艺术照精彩视频福利播放 | 中文字幕一区二区三区不卡 | 亚洲午夜精品在线| 成人免费高清视频在线观看| 久久一区二区三区四区| 奇米综合一区二区三区精品视频| 91国模大尺度私拍在线视频| 亚洲色图视频网| 91免费在线播放| 国产精品天美传媒| 成人精品电影在线观看| 国产欧美日本一区二区三区| 国产精品亚洲第一区在线暖暖韩国| 久久综合九色综合欧美98| 国内精品伊人久久久久av一坑 | 综合久久久久综合| 成人永久免费视频| 国产精品进线69影院| 丁香婷婷综合五月| 欧美国产日本韩| 粉嫩久久99精品久久久久久夜| 国产清纯白嫩初高生在线观看91 | 蜜臀a∨国产成人精品| 欧美日韩在线播放三区| 亚洲成人中文在线| 欧美伦理电影网| 蜜臀av一区二区| 国产午夜精品一区二区三区视频| 国产美女娇喘av呻吟久久| 久久久久国产精品厨房| 成人av影视在线观看| 一区二区三区日韩精品视频| 欧美日韩国产精品自在自线| 一区二区三区日韩| 5858s免费视频成人| 国产永久精品大片wwwapp| 国产精品少妇自拍| 91视频一区二区| 日韩精品一卡二卡三卡四卡无卡| 欧美日韩国产综合视频在线观看| 视频一区欧美日韩| 国产三级精品三级在线专区| 日本精品裸体写真集在线观看| 一区二区三区四区乱视频| 日韩一区二区三区免费观看| 国产精品夜夜爽| 亚洲麻豆国产自偷在线| 欧美精品在线观看播放| 狠狠色综合日日| 亚洲日本欧美天堂| 日韩一级二级三级精品视频| 成人午夜电影网站| 日韩综合小视频| 国产精品久久久久一区二区三区| 欧美高清视频一二三区 | 久久综合久久综合久久综合| 99热99精品| 久久99久久久久久久久久久| 国产精品久久久久影视| 91精品婷婷国产综合久久| 成人av资源站| 久久99精品久久只有精品| 亚洲欧美欧美一区二区三区| 亚洲精品一区二区三区在线观看 | 丁香啪啪综合成人亚洲小说 | 国产米奇在线777精品观看| 亚洲精品日韩综合观看成人91| 日韩精品影音先锋| 色一情一乱一乱一91av| 国产一区二区视频在线播放| 亚洲图片欧美一区| 国产精品久久国产精麻豆99网站| 日韩精品中文字幕一区二区三区| 色婷婷综合久久久久中文一区二区| 国产一区二区三区高清播放| 午夜精品影院在线观看| 亚洲免费观看高清| 国产精品免费久久| 久久精品一二三| 日韩一区二区在线免费观看| 欧美专区日韩专区| 91免费在线视频观看| 成人美女视频在线看| 韩国女主播一区二区三区| 日韩国产在线观看一区| 一区二区三区四区乱视频| 国产精品美女久久久久久| 久久综合九色综合97婷婷女人| 日韩视频中午一区| 91精品国产综合久久精品图片| 欧美日韩免费观看一区二区三区 | 日本伊人精品一区二区三区观看方式 | 久久精品亚洲麻豆av一区二区| 在线综合亚洲欧美在线视频| 欧美日韩亚洲综合在线| 欧美日韩精品一区二区三区四区 | 亚洲国产精品激情在线观看| 久久精品一二三| 中文字幕+乱码+中文字幕一区| 欧美激情中文字幕一区二区| 欧美激情综合五月色丁香| 国产日韩欧美激情| 欧美国产乱子伦| 一区二区三区在线播放| 亚洲综合色网站| 三级欧美在线一区| 久久精品久久综合| 国产乱码字幕精品高清av| 国产盗摄视频一区二区三区| 成人一区二区三区视频在线观看| 成人免费视频caoporn| 成人综合在线观看| 色婷婷亚洲综合| 欧美日本免费一区二区三区| 欧美一区国产二区| 欧美刺激脚交jootjob| 久久久久久亚洲综合| 中文字幕日韩精品一区 | 国产一区高清在线| 国产91精品精华液一区二区三区| 91视频在线看| 欧美夫妻性生活| 国产三级一区二区三区|