婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲實戰之制作屬于自己的一個IP代理模塊

python爬蟲實戰之制作屬于自己的一個IP代理模塊

熱門標簽:地圖標注面積 所得系統電梯怎樣主板設置外呼 北京電銷外呼系統加盟 佛山400電話辦理 市場上的電銷機器人 朝陽手機外呼系統 小蘇云呼電話機器人 儋州電話機器人 北瀚ai電銷機器人官網手機版

一、使用PyChram的正則

首先,小編講的不是爬取ip,而是講了解PyCharm的正則,這里講的正則不是Python的re模塊哈!
而是PyCharm的正則功能,我們在PyChram的界面上按上Ctrl+R,可以發現,這里出現兩行輸入框

現在如果小編想把如下數據轉換成一個字典存儲

讀者也許會一個一去改,但是小編只需在上述的那兩個輸入框內,輸入一串字符串即可。

只需在第一個輸入框中,輸入(.*) : (.*)
在第二個輸入框中,輸入"$1":"$2",,看看效果如何

之后再給兩端分別一個花括號和取一個字典名稱即可。

二、制作一個隨機User-Agent模塊

反爬措施中,有這樣一條,就是服務器會檢查請求的user-agent參數值,如果檢查的結果為python,那么服務器就知道這是爬蟲,為了避免被服務器發現這是爬蟲,通常user-agent參數值會設置瀏覽器的值,但是爬取一個網址時,每次都需要查看網址network下面的內容,顯得比較繁瑣,為什么不自定義一個隨機獲取user-agent的值模塊呢?這樣既可以減少查看network帶來的繁瑣,同時還可以避免服務器發現這是同一個user-agent發起多次請求。
說了這么多,那么具體怎樣實現呢?

只需調用隨機模塊random的方法choice()即可,這個方法里面的參數類型時列表類型,具體參考代碼如下:

import random

class useragent(object):

    def getUserAgent(self):
        useragents=[
            'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36',
            'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1',
            'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
            'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 2.0.50727; SLCC2; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; Tablet PC 2.0; .NET4.0E)',
            'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',
        ]
        return random.choice(useragents)

這樣我們就可以隨機得到一個user-agent的值了。

三、最終實踐

3.1 爬取快代理上的ip

接下來,就是最終實踐了,制作屬于自己的IP代理模塊。

那么,從哪里獲取IP呢?小編用的是快代理這個網址,網址鏈接為:https://www.kuaidaili.com/free/inha/1/。

怎樣提取IP呢?小編用的是xpath語法

參考代碼如下:

import requests
from crawlers.userAgent import useragent  # 導入自己自定義的類,主要作用為隨機取user-agent的值
from lxml import etree

url='https://www.kuaidaili.com/free/inha/1/'
headers={'user-agent':useragent().getUserAgent()}
rsp=requests.get(url=url,headers=headers)
HTML=etree.HTML(rsp.text)
infos=HTML.xpath("http://table[@class='table table-bordered table-striped']/tbody/tr")
for info in infos:
    print(info.xpath('./td[1]/text()'))   # ip
    print(info.xpath('./td[2]/text()'))   # ip對應的端口 列表類型

怎樣爬取多頁呢?分析快代理那個網址,可以發現https://www.kuaidaili.com/free/inha/{頁數}/ ,花括號里面就是頁數,這個網址總頁數為4038,這里小編只爬取5頁,并且開始頁數取(1,3000)之間的隨機數,但是如果for循環這個過程,運行結果如下:

原來是請求過快的原因,只需在爬取1頁之后,休眠幾秒鐘即可解決。

3.2 驗證爬取到的ip是否可用

這里直接用百度這個網址作為測試網址,主要代碼為:

url='https://www.baidu.com'
headers={'user-agent':useragent().getUserAgent()}
proxies={}   # ip ,這里只是講一下關鍵代碼,沒有給出具體IP
rsp=requests.get(url=url,headers=headers,proxies=proxies,time=0.2)  # timeout為超時時間

只需判斷rsp的狀態碼為200,如果是,把它添加到一個指定的列表中。

具體參考代碼小編已經上傳到Gitee上,鏈接為:ip代理模塊

當然讀者可用把這個文件保存到python\Lib文件夾下面,這樣就可用隨時隨地導入了。

3.3 實戰:利用爬取到的ip訪問CSDN博客網址1000次



上述出現那個錯誤,小編上網搜索了一下原因,如下:

我想應該是第1種原因,ip被封,我這里沒有設置超時時間,應該不會出現程序請求速度過快。

四、總結

上述那個ip代理模塊還有很多的不足點,比如用它去訪問一些網址時,不管運行多少次,輸出的結果狀態碼不會時200,這也正常,畢竟免費的ip并不是每個都能用的。如果要說改進的話,就是多爬取幾個不同ip代理網址,去重,這樣的結果肯定會比上述的那個ip代理模塊要好

到此這篇關于python爬蟲實戰之制作屬于自己的一個IP代理模塊的文章就介紹到這了,更多相關Python IP代理模塊內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python利用proxybroker構建爬蟲免費IP代理池的實現
  • Python爬蟲設置ip代理過程解析
  • python如何基于redis實現ip代理池
  • python3 Scrapy爬蟲框架ip代理配置的方法
  • Python爬蟲動態ip代理防止被封的方法
  • python實現ip代理池功能示例
  • python單例模式獲取IP代理的方法詳解
  • python3 requests中使用ip代理池隨機生成ip的實例

標簽:寧夏 商丘 酒泉 龍巖 江蘇 定西 云南 金融催收

巨人網絡通訊聲明:本文標題《python爬蟲實戰之制作屬于自己的一個IP代理模塊》,本文關鍵詞  python,爬蟲,實戰,之,制作,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲實戰之制作屬于自己的一個IP代理模塊》相關的同類信息!
  • 本頁收集關于python爬蟲實戰之制作屬于自己的一個IP代理模塊的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    av在线不卡免费看| 日本精品视频一区二区| 欧美日韩久久久久久| 青青草国产精品97视觉盛宴| 欧美mv日韩mv国产网站| 91在线国内视频| 美腿丝袜亚洲一区| 久久99精品一区二区三区三区| 久久99久久99| 亚洲v日本v欧美v久久精品| 99re这里只有精品首页| 国产乱码精品一区二区三区av| 欧美一区二区三区色| 国产一区二区电影| 欧美大片顶级少妇| 欧美日韩一级二级| av网站一区二区三区| 激情综合网天天干| 成人综合激情网| 无码av免费一区二区三区试看 | 中文字幕在线免费不卡| 精品美女被调教视频大全网站| 99久久国产综合精品色伊| 国产一区二区三区最好精华液| 久久婷婷国产综合国色天香| 国产欧美综合在线| 国产精品萝li| 最新日韩在线视频| 亚洲天堂精品视频| 中文字幕一区二区三区在线播放| 国产精品动漫网站| 亚洲线精品一区二区三区| 综合激情成人伊人| 亚洲精品国产成人久久av盗摄 | 成人禁用看黄a在线| 高清在线成人网| 亚洲国产日产av| 视频一区视频二区中文| 国产成人在线观看免费网站| 国产 欧美在线| 欧美日韩三级在线| 亚洲国产岛国毛片在线| 亚洲国产精品一区二区久久| 人禽交欧美网站| www.视频一区| 国产亚洲一区字幕| 天堂一区二区在线免费观看| 国内久久精品视频| 91搞黄在线观看| 99国产精品久久久久久久久久久 | 麻豆91在线看| 91福利在线免费观看| 在线欧美日韩精品| 国产欧美一区二区精品性色超碰| 国产日韩成人精品| 免费成人在线视频观看| 一区二区三区中文免费| 另类综合日韩欧美亚洲| 欧美日韩精品福利| 成人免费一区二区三区视频| 日韩色在线观看| 亚洲人亚洲人成电影网站色| 一区二区三区资源| 91视频国产资源| 2欧美一区二区三区在线观看视频| 精品理论电影在线观看| 成人综合激情网| 亚洲精品免费在线播放| 久久日一线二线三线suv| 亚洲欧美激情插| 欧美人牲a欧美精品| 蜜臀久久久99精品久久久久久| 91精品国产91久久综合桃花| 亚洲综合在线视频| 精品国精品自拍自在线| 色婷婷久久久亚洲一区二区三区 | 三级亚洲高清视频| 日韩电影免费在线| 一区二区三区欧美| 国产无人区一区二区三区| 欧美一级生活片| 欧美日韩一区二区三区不卡| 91香蕉视频污| 日本韩国欧美国产| 91一区一区三区| 91在线你懂得| 欧美在线观看视频在线| 欧美日韩精品欧美日韩精品| 欧美视频三区在线播放| 在线观看视频一区二区欧美日韩| bt欧美亚洲午夜电影天堂| 99精品热视频| 欧美午夜精品久久久| 在线观看免费成人| 在线观看免费视频综合| 欧美影院精品一区| 欧美日韩一本到| 日韩欧美一二三四区| 欧美电影免费观看高清完整版在| 日韩欧美综合在线| 中文无字幕一区二区三区| 国产精品免费aⅴ片在线观看| 一区二区三区国产精华| 日韩欧美美女一区二区三区| 久久免费美女视频| 亚洲精品亚洲人成人网 | 午夜天堂影视香蕉久久| 日韩电影在线观看一区| 狠狠色丁香久久婷婷综合丁香| 成人午夜在线播放| 欧美日韩在线直播| 欧美国产一区二区| 日韩av一区二区在线影视| 99免费精品在线观看| 欧美大片在线观看一区二区| 亚洲在线视频网站| aaa欧美大片| 中文在线资源观看网站视频免费不卡 | 欧美性猛交xxxxxx富婆| 国产欧美一区二区精品久导航| 天使萌一区二区三区免费观看| 在线中文字幕不卡| 亚洲综合自拍偷拍| 日本精品裸体写真集在线观看| 国产精品污网站| 不卡一二三区首页| 欧美一级淫片007| 无码av免费一区二区三区试看| 欧美视频日韩视频| 日韩av一区二区在线影视| 欧美美女网站色| 美女在线视频一区| 国产精品国产三级国产a| 91麻豆swag| 欧美日韩高清影院| 国内精品国产三级国产a久久| 欧美成人欧美edvon| 国产成人啪免费观看软件| 日韩一区有码在线| 欧美日韩一区二区三区在线| 日韩电影在线免费| 国产婷婷一区二区| 在线视频一区二区三| 捆绑调教美女网站视频一区| 国产女主播视频一区二区| 91福利区一区二区三区| 美女爽到高潮91| 一区二区三区不卡视频| 色94色欧美sute亚洲线路二| 精彩视频一区二区| 一区二区三区蜜桃网| 国产亚洲va综合人人澡精品 | 欧美日韩一区二区不卡| 成人在线综合网| 久久狠狠亚洲综合| 午夜av区久久| 亚洲第一久久影院| 亚洲日本丝袜连裤袜办公室| 欧美成人综合网站| 欧美高清hd18日本| 日韩视频不卡中文| 视频一区二区中文字幕| 欧美一区二区免费| 欧美日本一区二区三区| 色综合天天综合狠狠| 不卡免费追剧大全电视剧网站| 蜜桃视频在线一区| 奇米色一区二区| 另类欧美日韩国产在线| 久久国产精品72免费观看| 青青草成人在线观看| 精品无码三级在线观看视频| 国产呦萝稀缺另类资源| 成人小视频在线观看| 97久久久精品综合88久久| 日本福利一区二区| 日韩欧美一区二区视频| 日韩免费一区二区三区在线播放| 欧美大片在线观看一区| 国产精品欧美久久久久无广告 | 五月婷婷色综合| 蜜桃视频免费观看一区| 国产一区不卡视频| 成人激情av网| 日韩一级精品视频在线观看| 中文字幕欧美区| 亚洲永久免费av| 成人免费三级在线| 在线观看国产精品网站| 91精品久久久久久蜜臀| 最新中文字幕一区二区三区| 亚洲v精品v日韩v欧美v专区| 成人精品在线视频观看| 精品国产乱码久久久久久老虎 | 日本福利一区二区| 精品成人佐山爱一区二区| 中文字幕人成不卡一区| 国模大尺度一区二区三区| 欧美日韩日日夜夜| 亚洲人午夜精品天堂一二香蕉|